Techniques de référencement en Juin 2006

Statut
N'est pas ouverte pour d'autres réponses.
WRInaute accro
Rituel avait fait en 02/2005 un post sur les techniques de référencement: https://www.webrankinfo.com/forum/t/la-petite-bible-du-referenceur.23221/ . Un super post mais plus trop à jour. Je vais essayer de me baser sur le post de Rituel même si ce n'est pas la bible ... (les techniques de référencement changent régulièrement) J'espère que dans 6 mois, un autre refera le même tropic actualisé. Suivre ce qui suit ne garantit pas la première place mais un bon emplacement (c'est déjà pas si mal).

Légende :

+ Libellé : Positif pour le référencement
-Libelle : Néfaste pour le référencement
~ Libelle : Répercussions non prouvées


I. L'hébergement

+ Localisation géographique du serveur dans le pays que vous ciblez (1)
- Pannes prolongées
hébergement lent, messages d'erreur SQL[/size]
(1) la technique a empiré. Vous pouvez par exemple sur GG Belgique être bien positiobnné sur une requête avec 2 pages et être positionné sur uniquement Belgique avec 2 autres pages. Difficile à comprendre, mais GG semble de plus en plus tenir compte pour le référencement par pays du pays du site qui envoie le lien. Par exemple, si 2 pages recoivent des liens de GG Belgique elles eront mieux positionnées en uniquement Belgique que les autres qui recoivent des liens venant de sites français plus importants (elle même mieux positionnées en mondial, y compris France ou .com)

II. Le nom de domaine

+ Extension correspondant au pays que vous ciblez
- Redirection de type Ulimit
- Plus de trois mots dans le nom de domaine
+ Mots clefs dans le nom de domaine

Début 2005, la croyance donnait la requête favorisée par l'adresse de la page + NDD. Actuellement, l'inverse est plutôt de mise (même si dans le nom des pages ca favorise le classement personnel, lisez pour l'administration du site). Une adresse de page suroptimalisée défavorise ... surtout si vous utilisez tous les autres trucs lus sur WRI.
Aye-Aye a dit:
les '-' séparateurs, peut être préciser que le nombre doit être limité (cf Matt Cutts + indexation MSN... qui en général accepte un seul tiret : il y a une intolérance croissante chez MSN à l'utilisation de '-' quand bien même il ne s'agirait pas de rewriting).

III. Architecture du site

+ Séparation des thèmes distincts en sous-domaines portants le mot-clef du thème abordé

+ Elaboration d'une page plan du site
- Changements de topologie sans redirections
+orrganisation d'un thème en répertoires portants le mot-clef du sous-thème abordé

De nouveau, c'est plutôt actuellement vu comme de la suroptimalisation

IV. Structure physique d'une page

+ Mots clefs dans le nom de la page (1)
+ Utilisation des "-" pour la séparation des mots-clefs dans le nom de la page (2)
les mots dans la page (3)
- Plus de trois mots dans le nom de la page
- Utilisation de frames (4)
- Taille dépassant 101 ko (5)

(1) Début 2005, les tests donnait une préférence pour les nom de pages contenant les mots clés. GG ne semble plus trop y faire attention. Pire, dans certains cas (abus), il semble pénaliser la page.
(2) Les tests d'Olivier à l'époque favorisaient le - dans le nom de page en remplacement du _
(3) ils sont importants, sans trop exagérer. Pourtant Mahé ... a donné sur ce forum des contre exemples, bien placé sans le mot sur la page (ce filou n'a pas donné ni l'adresse de ses pages, ni les requêtes, mentionnant seulement un nombre de résultats importants :wink: mais on peut lui faire confiance).
(4) l'utilisation de frame peut être une technique (difficile) de référencement mais elle doit être réservée à des cas spécifiques.
(5) plus d'application, GG lit les pages supérieures. Certaines de mes pages dépassent les 200 K et sont maintenant copmplètement dans le cache (ce qui ne veux pas dire complètement indexées). Par contre difficile de faire passer quelques mots clés avec 200 K de ... textes.

V. Balise titre

+ Courte phrase syntaxiquement correcte contenant les principaux mots-clefs pour la page donnée
+ Rester sous la barrière des 10 mots et des 70 caractères
- Titre identique sur toutes les pages du site

Thierry Bugs a dit:
placer les mots importants à gauche en début du title (idem pour la balise description) de manière à se positionner sur ces mots clés.

VI. Balise description

+ Phrase syntaxiquement correcte contenant les principaux mots-clefs pour la page donnée
+ Rester sous la barrière des 20 mots et des 120 caractères
+ les mots clés principaux si possibles en début de description
- description sans caractères inutiles genre, la, les, de, .... (1)
- Description identique sur toutes les pages du site
(1) GG vérifie de plus en plus méchamment les phrases sans réelle logique, les listes de mots clès sont depuis longtemps passées à la trappe, les listes répétitives de phrases inconstruites semblent suivre le même chemin
Thierry Bugs a dit:
Je souhaiterai que tu insiste sur le fait de faire des phrases "correctes et optimisées", c'est possible, il suffit parfois de changer la tournure de phrase pour avoir d'excellents résultats (sur le positionnement de la page)

VII. Autres balises

- Non présence des balises <HTML>,<HEAD>,<BODY>
- Non spécification du doctype, charset et de la langue

les bots sont maintenant suffisamment grands pour reconnaître la langue. Seule exception, pour ceux qui mettent des adsences avec quelques mots dans d'autres langues dans le texte (et c'est même pas réellement prouvé) par contre:
Didier_S a dit:
sans charset, Google peut mal interpreter les accents dans les pages / les title / desc si ceux-ci ne sont pas passés au "htmlentities". Tu te retrouves donc avec des pseudos-caractères en UTF8, qui, d'une, font moche, mais qui, à mon avis, ne sont pas reconnus comme des accents...
Tu risques donc de ne pas ressortir sur "école" si l'accent passe mal. Même si Google tend à éliminer ce genre de problèmes, "école" et "ecole" ne renvoient pas les mêmes résultats
VIII. Contenu textuel d'une page

+ Structuration du document à l'aide de balises Titres <Hx> contenant si possible les mots-clefs ciblés
+ Mise en valeur des mots-clefs à l'aide de la casse, des styles (Gras,italique,souligné) et de la variation de la taille du texte.
+ Utilisation des DIV en remplacement des tableaux.
- Tout texte non visible ou non cohérent pour les visiteurs
- Utilisation de flash
- Occurence des mots-clefs trop élevée
- Abus de mises en forme autour des mots-clefs : Gras, italique, souligné, couleurs, <Hx> ...
- Pages vides ou en construction
Aye-Aye a dit:
peut être une mention spéciale pour la balise <strong>.
French Dread a dit:
Ce n'est pas que les moteurs préferent les div au tables. Mais les div permettent une meilleure structuration du code et du contenu.
Un example : avec des tableaux definissant une mise en page à 2 colonnes avec menu à gauche, le source affichera d'abord le menu puis le contenu. Tandis qu'avec des div positionné en float, il est possible d'avoir le menu à gauche alors que ce menu est situé après le contenu dans le code. Et il est meilleur pour le référencement que le contenu soit positionné haut dans le code...

IX. Liens internes

+ Utilisation du format de liens suivant : <a href="http://www.mon-site.com/pages.html">Libellé du lien contenant si possible le principal mot-clef définissant la page liée</a>
+ URL rewriting systématique des pages contenant des arguments
- Utilisation de Javascript
- Utilisation de sessions

X. Contenu imagé d'une page

+ Nom des images consciencieusement choisi (1)
+ Saisie du contenu alternatif si l'image a son importance au sein de la page

(1) toujours les tests d'Olivier de l'époque ....
(2) pour avoir essayé fin 2005 d'insérer les mots clés dans les balises images, perte de positionnement par ... suroptimalisation

XI. Liens externes (Backlinks)

+ PageRank de la page qui lie élevé
+ Faible nombre de liens externes sur la page qui lie
+ Nombre de liens pointant vers votre site élevé (1)
+ Utilisation du format de lien suivant : <a href="http://www.mon-site.com/">Mot-clef</a> (2)
+ Titre de vos backlinks variés tout en restant ciblé sur les mot clefs que vous privilegiez
~ Evolution progressive du nombre de Backlinks
- Fermes de liens (Link farming)
- Redirections sauvages
- Attribut rel="nofollow"

(1) en février 2005, on ne parlait pas de sandbox. GG semble aimer la continuité. Un nouveau site avec 100 liens de départ ne semble pas poser de problèmes tant que l'augmentation du nombre de liens suit dans le temps (par exemple, 200 liens 1 mois plus tards, 300, 2 mois plus tard, ...). Mieux vaut donc actuellement démarrer pas trop gros mais en créshendo.
kazhar a dit:
~ Evolution progressive du nombre de Backlinks
Je serai réticent par rapport à cela, et parierai plus sur une évolution non pas progressive, mais constante du nombre de backlinks
(2) ici aussi, l'algorythme a changé, sur 100 liens, mieux vaut 50 % avec la requête exacte, les autres mélangeant d'autres termes, y compris en utilisant un des mots clés.
Aye-Aye a dit:
.important de favoriser les pages à thématique similaire et celles ressortant bien sur le mot clé visé sur GG (CF article de WRI).
+ pour un bl situé dans le contenu de la page par rapport au footer

XII. Autres

- Sites mirroirs

je compte sur tous les autres membres de WRI pour amméliorer ce post.... et un autre pour en recréer un plus à jour dans quelques mois en fonction de l'évolution et de votre propre expérience.
 
WRInaute passionné
Concernant les '-' séparateurs, peut être préciser que le nombre doit être limité (cf Matt Cutts + indexation MSN... qui en général accepte un seul tiret : il y a une intolérance croissante chez MSN à l'utilisation de '-' quand bien même il ne s'agirait pas de rewriting).
Concernant la mise en valeur de la page, peut être une mention spéciale pour la balise <strong>.

Concernant les back links : important de favoriser les pages à thématique similaire et celles ressortant bien sur le mot clé visé sur GG (CF article de WRI).
Concernant les backlinks : + pour un bl situé dans le contenu de la page par rapport au footer
 
WRInaute occasionnel
III. Architecture du site
+ Séparation des thèmes distincts en sous-domaines portants le mot-clef du thème abordé

-> je ne serais jamais ok avec ça... les sous domaines sont à éviter
 
WRInaute accro
VIII. Contenu textuel d'une page
Je n'aurai pas mis l'utilisation de flash en rouge. En effet, pourquoi ne pas placer une animation flash ? Tant qu'il y a du contenu autour, et que les balises noembed sont complètes.

XI. Liens externes (Backlinks)
~ Evolution progressive du nombre de Backlinks
Je serai réticent par rapport à cela, et parierai plus sur une évolution non pas progressive, mais constante du nombre de backlinks

J'ajouterai également, toujours dans la même catégorie :
+ Thème du site en rapport avec le votre
+ Mot clé situé dans l'attribut title du lien
 
WRInaute passionné
kazhar a dit:
VIII. Contenu textuel d'une page
Je n'aurai pas mis l'utilisation de flash en rouge. En effet, pourquoi ne pas placer une animation flash ? Tant qu'il y a du contenu autour, et que les balises noembed sont complètes.
Il y a des solutions préférables à cette balise : balise object et contenu alternatif

J'ajouterai également, toujours dans la même catégorie :
+ Thème du site en rapport avec le votre
+ Mot clé situé dans l'attribut title du lien
Je n'ai pas lu à ce jour d'informations sur l'impact positif de l'attribut title du lien. As-tu un article à citer ou est-ce le principe de précaution qui t'amène à proposer cela Kazhar ?
 
WRInaute accro
J'ai déjà corrigé en fonction des différentes réponses, du moins ce que j'ai égalment remarqué sur mes sites.

Pour les sous-domaines, c'est discutable. Je n'utilise pas de sous domaines personnellement. Ce qui semble sûr à l'heure actuelle:
. un site avec beaucoup de pages est favorisé par rapport à 2 sites d'un même nombre de pages, particulièrement 1 vieux site contre 1 vieux site + 1 nouveau et les sous-domaines sont considérés comme 2 sites distincts. Par contre les liens externes ont plus de poids qu'un lien interne.

Au niveau Sandbox, parlait au niveau "post de rituel". A l'époque, c'était plutôt quelques uns qui en parlait, ce n'était pas forcément vérifié pour tous les nouveaux sites. Maintenant il semble que oui. Ajouterais la partie Sandbox cet après-midi, j'y avait déjà pensé.
 
WRInaute accro
Aye-Aye a dit:
J'ajouterai également, toujours dans la même catégorie :
+ Thème du site en rapport avec le votre
+ Mot clé situé dans l'attribut title du lien
Je n'ai pas lu à ce jour d'informations sur l'impact positif de l'attribut title du lien. As-tu un article à citer ou est-ce le principe de précaution qui t'amène à proposer cela Kazhar ?
Oui, principe de précaution, ainsi que expérience personnelle (il irait mieux en vert caca d'oie qu'en vert pétant, c'est vrai)
 
WRInaute impliqué
Merci et félicitation pour ces remarques.

Tu dis qu'il est interessant de séparer les parties d'un site par des sous-domaines.

Or, le sous-domaine est considéré comme un site indépendant du domaine principal. Le sous-domaine ne bénéficie donc pas du référencement du domaine principal.

Il est donc peut être plus interessant de séparer par des repertoires plutot que par des sous-domaines... :roll:

De plus, si tu dit qu'il est interessant de séparer par des sous-domaines, j'en déduit donc qu'il est "négatif" qu'un site ai plusieurs thèmes différents ?

Bonne journée.
 
WRInaute accro
arkantos a dit:
De plus, si tu dit qu'il est interessant de séparer par des sous-domaines, j'en déduit donc qu'il est "négatif" qu'un site ai plusieurs thèmes différents ?

Bonne journée.

Pas forcément. (mais je pense que le message s'adresse pas forcément à moi). Ca va probablement dépendre de la diversité du site. GG semble privilégier les vieux sites.

Pour avoir fait un petit test dans une formation que je donne ..., une seule page pour fleuriste directement sous ma page d'index, passé présente en moins de 10 jours et bien placée sur les mots que l'on cherchais. (pourtant la page reprenait un texte n'importe quoi, juste le titre et la description optimalisée). Sans conclusions hatives, je pense pas qu'à l'intérieur d'un site ca joue (lien interne). Par contre, GG semble faire la chasse aux liens partenaires trop présents et (c'est mon idée) aux liens d'annuaires. Mettre des partenariats sur n'importe quels sites ne sera pas forcément négatif mais nettement moins intéressants que sur des sites dans la même thématique.

Au passage, pas trop faire des sites uniquement pour les moteurs de recherche. Si les pages de thématique différente te semblent intéressante pour le visiteur, mieux vaut les mettre sur un même site que multiplier le nombre de sites ou même de sous domaines. Rien que le sandbox te met un nouveau site en dehors des bonnes places pour 6 mois minimum ..
 
WRInaute accro
arkantos a dit:
j'en déduit donc qu'il est "négatif" qu'un site ai plusieurs thèmes différents ?
Je pense que oui, enfin, tout est à relativiser évidemment. Je donne toujours en exemple krinein.com qui - à mon avis - utilise de façon intelligente les sous-domaines.
Alors certes, étant donné que chaque sous-domaine est considéré comme un site différent, ça fait moins de "poids" pour chacun (enfin, à débattre là encore), mais s'il y a beaucoup de contenu dans chacun des thèmes, et que ces thèmes sont bien différents, il vaut surement mieux scinder en sous-domaine (et le faire dès la création du site, évidemment).

D'ailleurs, Yahoo fait comme ça.
 
WRInaute occasionnel
Ybet dit : Je n'utilise pas de sous domaines personnellement.
:) ... alors Ybet comment peux tu l'affirmer ?
ah ah ah
 
WRInaute accro
touttoulon a dit:
Ybet dit : Je n'utilise pas de sous domaines personnellement.
:) ... alors Ybet comment peux tu l'affirmer ?
ah ah ah

1. un parce que c'est logique.
2. Prend pas position, signale uniquement les 2 méthodes.
3. Suis en contact avec beaucoup d'autres Webmasters qui utilisent les sous domaines. :wink:
4. .... j'ai l'habitude de créer un nouveau nom de domaine dès que j'ai besoin d'un autre site, y compris dans la même thématique., mon hébergement me le permet ... 8) . Pourtant, démarrer un sous domaine a les mêmes difficultées qu'un nouveau site.
 
WRInaute occasionnel
1. un parce que c'est logique.
non
2. Prend pas position, signale uniquement les 2 méthodes.
hum
3. Suis en contact avec beaucoup d'autres Webmasters qui utilisent les sous domaines.
les connecteurs de thierry crouzet ?
4. .... j'ai l'habitude de créer un nouveau nom de domaine dès que j'ai besoin d'un autre site, y compris dans la même thématique., mon hébergement me le permet ... . Pourtant, démarrer un sous domaine a les mêmes difficultées qu'un nouveau site.
hum hum

...
je vais relancer le vieu débat à deux francs... mais je l'ai surtesté (surtesté = plein plein plein de test... ;))...et il faut absolument éviter les sous domaine !!!!!!!!!!!!!!!!!!!!!!!!!
alors de la à le conseiller dans un topic appelé "Techniques avancées de référencement "... d'ailleur j'aurais enlever "avancées" dans le title :).. ok je :arrow:
 
Olivier Duffez (admin)
Membre du personnel
touttoulon a dit:
je vais relancer le vieu débat à deux francs... mais je l'ai surtesté (surtesté = plein plein plein de test... ;))...et il faut absolument éviter les sous domaine !!!!!!!!!!!!!!!!!!!!!!!!!
maintenant que tu as dit ça, nous attendons tous des explications plus détaillées !
 
WRInaute occasionnel
oui olivier, il le faudra... dés que j'ai un peu de temps pour pondre une note complète sur les sous domaine.
 
WRInaute occasionnel
pour être plus précis, il faut un sous domaine par ndd wullon.
les gros sites comme yahoo sont des cas particuliers... mais sont t'ils si bien référencés que ça ?
 
Olivier Duffez (admin)
Membre du personnel
c'est une question difficile je pense. On peut trouver des exemples de sites ayant de nombreux sous domaines, et qui sont bien référencés. Mais comment savoir s'ils serait plus ou moins bien référencés s'ils avaient utilisé des répertoires (ou d'autres domaines) ?
 
WRInaute occasionnel
Il faut ajouter dans les points positifs en vert :

+ conforme au normes W3C et accessibilité du site

dans les points négatifs en rouge :

- les mêmes textes répétés sur les pages du site
- pas de balise meta description
- une balise meta keywords répétant plusieurs occurrences d'un même terme ou trop longue ou les deux...
 
Olivier Duffez (admin)
Membre du personnel
leffroyable a dit:
Il faut ajouter dans les points positifs en vert :

+ conforme au normes W3C et accessibilité du site

dans les points négatifs en rouge :

- les mêmes textes répétés sur les pages du site
- pas de balise meta description
- une balise meta keywords répétant plusieurs occurrences d'un même terme ou trop longue ou les deux...
le respect des normes W3C peut avoir des effets positifs mais c'est tout à fait indirect...
pour le reste je ne suis pas d'accord avec toi, notamment la balise keywords vu qu'elle est ignorée !
 
WRInaute occasionnel
Je ne suis bien-sûr pas certain, mais je suppose que si on répète trop des mots dans la balise keywords, on risque d'être pénalisé pour cela.
il y a 2 ou 3 ans, la balise description ne servait plus à rien et voilà que google la remet à l'ordre du jour...
On ne peut pas exclure un critère aujourd'hui sans risque.

C'est mon point de vue pour faire avancer cette discussion, je n'ai pas forcément raison ;-)
 
WRInaute passionné
VIII. Contenu textuel d'une page
+ Mise en valeur des mots-clefs à l'aide de la casse, des styles (Gras,italique,souligné) et de la variation de la taille du texte.
Que dire de la mise en forme par CSS aujourd'hui ?
Cela impacte-t-il ?
Je crois qu'une petite précision s'impose... mais je laisse la parole à quelqu'un d'autre en la matière.

leffroyable a dit:
Je ne suis bien-sûr pas certain, mais je suppose que si on répète trop des mots dans la balise keywords, on risque d'être pénalisé pour cela.
C'est mon point de vue pour faire avancer cette discussion, je n'ai pas forcément raison ;-)
Essayons de ne poser que des points qui sont relativement consensuels...
 
WRInaute passionné
WebRankInfo a dit:
c'est une question difficile je pense. On peut trouver des exemples de sites ayant de nombreux sous domaines, et qui sont bien référencés. Mais comment savoir s'ils serait plus ou moins bien référencés s'ils avaient utilisé des répertoires (ou d'autres domaines) ?

Sans que je puisse le démontrer par A + B, je crois que ça va encore plus loin que ça. Je pense en effet que les critères de l'algo sont pondérés différemment selon les thèmes des pages.

Exemple : une optimisation, ou une façon de faire, qui peut booster une page ou un site dans le domaine de la rencontre, serait inefficace, voire pénalisante, dans le domaine de la musique.

Cela me paraît encore plus vrai depuis Bigdaddy.

Ainsi, si on parvenait à faire un test sur l'intérêt d'un sous-domaine sur un thème, cela ne voudrait pas dire, à mon avis, que les conclusions du test sont valables pour toutes les thématiques.
 
WRInaute accro
lafleur2004 a dit:
Sans que je puisse le démontrer par A + B, je crois que ça va encore plus loin que ça. Je pense en effet que les critères de l'algo sont pondérés différemment selon les thèmes des pages.

donc pas testé ...

vois pas pourquoi non plus un tests dans une thématique serait différents de celui d'une autre thématique. Finalement pourrait peut=être essayer un de ces jours, quoique faire un tests grandeur nature sans tomber en plus dans le sandbox d'un nouveau sous domaine ..
 
WRInaute accro
les sous-domaines ont été très longtemps un excellent moyen de positionner des pages rapidement ...
- je suis convaincue (sans pouvoir moi non plus le démontrer par a+b) qu'un sous-domaine bien que considéré comme un nouveau domaine bénéficie néamoins des bienfaits (et des méfaits d'ailleurs dans certains cas) du domaine auquel il est rattaché ...
- ils ont longtemps servi à integrer des mots clés très à gauche de l'URL (là où elles sont le plus efficace) pour aider au positionnement de pages ...

le problème est que le spamindexing s'en en très vite emparé et en a usé et abusé, avec beaucoup de succés pendant assez longtemps ... je pense que google s'en est rendu compte : les sous domaines n'étant pas pis en compte dans le clustering, il était courant de voir des sites truster les 2 ou 3 premières pages du moteur (notament dans le domaines des marques blanches genre sonneries et logos), et a fini par mettre qq filtres sur les sous domaines à cette époque (par exmple : les sous-domaines à 1 page) ...

[edit] un billet intéressant sur le sujet : http://www.seobook.com/archives/001699.shtml ... :wink:
 
WRInaute passionné
lafleur2004 a dit:
Sans que je puisse le démontrer par A + B, je crois que ça va encore plus loin que ça. Je pense en effet que les critères de l'algo sont pondérés différemment selon les thèmes des pages.

Exemple : une optimisation, ou une façon de faire, qui peut booster une page ou un site dans le domaine de la rencontre, serait inefficace, voire pénalisante, dans le domaine de la musique.

Je suis sceptique sur cette théorie.

1. Cela ajouterait de la complexité à l'algo de ranking, sans aucune vrai valeur ajoutée. Je n'arrive pas à voir ce que cela apporterait.

2. Quel serait l'objectif d'une telle pondération en terme de pertinence ?

Ce qui est vrai c'est que les différents secteurs sont plus ou moins concurrentiels.
Une technique, qui marche très bien sur un thème peu concurrentiel, sera inefficace sur un thème très concurrentiel.
 
WRInaute passionné
spidetra a dit:
Je suis sceptique sur cette théorie.

1. Cela ajouterait de la complexité à l'algo de ranking, sans aucune vrai valeur ajoutée. Je n'arrive pas à voir ce que cela apporterait.

2. Quel serait l'objectif d'une telle pondération en terme de pertinence ?

Ce qui est vrai c'est que les différents secteurs sont plus ou moins concurrentiels.
Une technique, qui marche très bien sur un thème peu concurrentiel, sera inefficace sur un thème très concurrentiel.

Ce n'est pas une théorie, mais juste une conviction.

Je ne pense pas que ce soit forcément volontaire. C'est peut-être une conséquence du fait que la forme des réseaux de pages (et de sites) sont différents d'une thématique à l'autre.
 
WRInaute impliqué
touttoulon a dit:
III. Architecture du site
+ Séparation des thèmes distincts en sous-domaines portants le mot-clef du thème abordé

-> je ne serais jamais ok avec ça... les sous domaines sont à éviter

comment expliques tu alors que j'arrive a me placer en 11eme position sur "coupe du monde allemagne 2006" en moins de quatres jours grace a un sous domaine?

pour ma part et c'est un constat que j'ai pu faire grace a une masse de sous domaine, les mots clés des sous domaines sont avantagés
 
WRInaute impliqué
WebRankInfo a dit:
le respect des normes W3C peut avoir des effets positifs mais c'est tout à fait indirect...

il faudra le répéter encore longtemps? :roll: en tout cas c'est tres bien résumé :)
 
WRInaute accro
Zim' a dit:
comment expliques tu alors que j'arrive a me placer en 11eme position sur "coupe du monde allemagne 2006" en moins de quatres jours grace a un sous domaine?

pour ma part et c'est un constat que j'ai pu faire grace a une masse de sous domaine, les mots clés des sous domaines sont avantagés

Zim, je respecte ton travail mais:

1. cette requete est tout à fait spéciale et ne prouve pas grand chose (4 mots)
2. pas sur que ce soit une requete stratégique (de type nombre de visiteurs tapés).

Dans le style, suis premier depuis 5 ans sur "festival dédicace exposition bd" (même les 2 premières :wink: ), mais jamais tapé en ... 5 ans :roll:

Je pense pas que ce post doit joué sur "pour" ou "contre" sous domaines sans réels tests. C'est plutôt une stratégie de construction de sites de la part du concepteur (même si ca mériterait un post entier).

Le but est de rassembler les connaissances actuelles, en juin 2006
 
WRInaute accro
Concernant les sous-domaines je suis mitigé...
Je pense que si ce S-D fait partie intégrante du site Google l'index comme un sous-dossier (ce qui serait logique)...
Par contre un S-D avec une thèmatique différente du domaine principal sera plus compliqué à référencer (je pense aux hébergeurs comme free par exemple)...

Mais ce n'est que mon humble avis... :|
 
WRInaute passionné
Le débat pour ou contre les sous-domaines du point de vue du référencement est certainement un débat sans fin.
La mise en place de tests pour mesurer l'impact de ce critère est assez complexe.

Voici ma pratique dans ce domaine :

1. Les sous-domaines techniques :
Ces sous-domaines ne servent pas pour le référencement. Ils servent à faciliter l'administration d'un site, simplifier des techniques de load-balancing, etc.. Dans ces sous-domaines techniques on trouvera généralement : les images, les serveurs de pub, etc....

2. Les sous-domaines par langue
La aussi, en accord avec Matt Cutts, j'ai toujours été favorable à l'équation simple : une langue = 1 nom de domaine ( ou sous-domaine ).
En terme de référencement, les deux pratiques ( sous-domaine ou sous-dossiers ) me semblent être aussi efficace l'une que l'autre.

3. Les sous-domaines de contenu :
Ce sont ces sous-domaines qui sont intéressants en terme de référencement.
Ma règle est assez simpliste :
Je décide de mettre en place un sous-domaine chaque fois que la spécialisation thématique ou géographique d'un site le justifie.

Le sous-domaine doit pouvoir vivre et grandir de manière autonome et cohérente vis à vis du domaine principal ( le www ).


4. Le spamdexing par sous-domaine :
Les optimisations du style : 1 page = 1 sous-domaine sont clairement des tentatives de spamdexing et de pollution de l'index de Google.
A Google de détecter et de sanctionner ces pratiques. Ces sanctions seront efficaces lorsqu'elles s'appliqueront à tout les sous-domaines + le domaine principal.

Sur mes petits index de tests ( de 2 à 5 millions de pages ) il est assez facile de détecter les anomalies de ce style.
Des statistiques sur l'index permettent de détecter des pratiques s'écartant de manière significatives des pratiques moyennes.
Ces techniques de détection sont très artisanales, et certainement plus dures à mettre en place sur des index de quelques milliards de pages.
 
WRInaute passionné
ybet a dit:
(1) en février 2005, on ne parlait pas de sandbox. GG semble aimer la continuité. Un nouveau site avec 100 liens de départ ne semble pas poser de problèmes tant que l'augmentation du nombre de liens suit dans le temps (par exemple, 200 liens 1 mois plus tards, 300, 2 mois plus tard, ...). Mieux vaut donc actuellement démarrer pas trop gros mais en créshendo.
Espérons que ta définition reste conditionnelle et qu'elle ne devienne pas une assertion ! 8O

Qu'en pense "les référenceurs" qui en ont fait leur fond de commerce ?
Comment élaborer une stratégie quand tout est supposition ?

Certes avec expérience ont peut supputer : trop de liens d'un coup :arrow: Direction in the sandbox…
Ok ! Mais cela ne va pas dire que la réciproque soit d'un effet contraire ! :?
 
WRInaute accro
globalement d'accord avec ton post spidetra ... :roll:

je crains que ce lien ne soit passer inaperçu (car rajouté après coup) ... mais ce billet donne qq pistes sur les techniques de détection par les moteurs du spam d'URL :
--> Quick Indications of Low Quality Search Spam ...

extrait :

What are a few quick at-a-glance spameroooo indicators?
- URL name - does it have 12 dashes in it? Is it a subdomain off something totally unrelated? SPAM!
- folder names - are the exceedingly long and/or redundant? SPAM!
- file names - are they redundant with the file paths and long? SPAM!
- [...]
 
WRInaute accro
david96 a dit:
Ok ! Mais cela ne va pas dire que la réciproque soit d'un effet contraire ! :?

Malheureusement non. Vais finir par créer les noms de domaine 6 mois à l'avance, juste quelques pages ..., attendre la fin de la sandbox pour démarrer effectivement le site . :roll: Me suis fait coller (certains y sont encore) sur des petits sites de 5 pages comme sur des sites de 300 pages ... J'ai d'aillieurs stopper momentanément le développement d'un site rien que pour celà.

Pour la Sandbox, un post plus complet https://www.webrankinfo.com/forum/t/analyse-detaillee-de-la-sandbox.37186/
 
WRInaute accro
Cendrillon a dit:
globalement d'accord avec ton post spidetra ... :roll:

je crains que ce lien ne soit passer inaperçu (car rajouté après coup) ... mais ce billet donne qq pistes sur les techniques de détection par les moteurs du spam d'URL :
--> Quick Indications of Low Quality Search Spam ...

excellent lien.
file names - are they redundant with the file paths and long? SPAM!
Traduction: le nom du fichier redondant avec les mots de l'adresse de la page... Ca met à la porte les pages créés en 2004 - 2005 où les webmasters (moi y compris) créaient les noms de pages en fonction des termes à optimaliser. Reste à voire dans quelle mesure, à quel point l'algorytme détecte spams et classement.
 
WRInaute passionné
ybet a dit:
david96 a dit:
Ok ! Mais cela ne va pas dire que la réciproque soit d'un effet contraire ! :?

Malheureusement non. Vais finir par créer les noms de domaine 6 mois à l'avance, juste quelques pages ..., attendre la fin de la sandbox pour démarrer effectivement le site . :roll: Me suis fait coller (certains y sont encore) sur des petits sites de 5 pages comme sur des sites de 300 pages ... J'ai d'aillieurs stopper momentanément le développement d'un site rien que pour celà.

Pour la Sandbox, un post plus complet https://www.webrankinfo.com/forum/t/analyse-detaillee-de-la-sandbox.37186/
Autant alors se faire remarquer le plus rapidement possible avec les mots clefs susceptible d'être concurrentiels puisque de toute façon pas possible d'y réchapper. Je vais allez voir ton lien, merci ;-) edit : déjà vu ! :-D
 
WRInaute accro
ybet a dit:
Vais finir par créer les noms de domaine 6 mois à l'avance, juste quelques pages ..., attendre la fin de la sandbox pour démarrer effectivement le site . :roll:
tu veux faire de l'élevage de NDD ... c'est très à la mode ... :wink:
d'ailleurs il y a surrement un créneau à prendre : la revente de NDD pré-desandboxés (pré-rodés ?) ... des pépinières de NDD en qq sorte ... :lol:
 
WRInaute accro
Cendrillon a dit:
ybet a dit:
Vais finir par créer les noms de domaine 6 mois à l'avance, juste quelques pages ..., attendre la fin de la sandbox pour démarrer effectivement le site . :roll:
tu veux faire de l'élevage de NDD ... c'est très à la mode ... :wink:
d'ailleurs il y a surrement un créneau à prendre : la revente de NDD pré-desandboxés (pré-rodés ?) ... des pépinières de NDD en qq sorte ... :lol:

Non, j'ai tout simplement 4 ou 5 projets, certains avancés d'autres au tout début (quasiment que dans ma tête). Avec la Sandbox, les acheter quelques mois à l'avance devrait me permettre de mettre en ligne sur un "ancien" nom de domaine.

Mais c'est peut-être une idée

Petite annonce a dit:
Achète pas chère non de domaine pas encore utilisés suivant vos desiderata de NDD. Vous les revend (très) chère dans 6 mois mais avec la certitude qu'il sera suffisament référencer depuis longtemps pour ne plus être sandboxés (j'ai des frais quand même les liens à mettre sur ces domaines de mes sites :? , le payement de l'hébergement :twisted: , ....

Satisfait ou remboursé
 
WRInaute impliqué
Cendrillon a dit:
ybet a dit:
Vais finir par créer les noms de domaine 6 mois à l'avance, juste quelques pages ..., attendre la fin de la sandbox pour démarrer effectivement le site . :roll:
tu veux faire de l'élevage de NDD ... c'est très à la mode ... :wink:
d'ailleurs il y a surrement un créneau à prendre : la revente de NDD pré-desandboxés (pré-rodés ?) ... des pépinières de NDD en qq sorte ... :lol:


C'est une idée... google devrais ss'y mettre on acheterai tous nos ndd chez eux :-d
 
WRInaute passionné
Google nous force à être de bon paysan ! Faut acheter le terrain pis bâ le semer avec amoule crès vin dioux... Pis bâ t'attends la plemièle lécolte, Hooo elle est jamais bien bonne mon p'tit gar, mais la deuxième bâ bon dioux, pour sûr ça devrait le faile ! Par contre faut être patient, pinaise ça c'est sûr 8)
 
WRInaute accro
je reviens sur ton b.a.b.a. des techniques avec quelques petits détails :

II. Le nom de domaine
si vous des avez des projets à long terme pour votre site, il vaut mieux acheter quelques extensions supplémentaires, même inutilisées que de se les faire acheter par des boites qui vous le revendront ensuite.
Car dès que le site commence à se faire connaître il est fréquent maintenant que les autres extensions vous soient soufflées sous le nez et on vous les propose pour 5 ou 6000$

V. Balise titre
placer les mots importants à gauche en début du title (idem pour la balise description) de manière à se positionner sur ces mots clés.

VI. Balise description
Je souhaiterai que tu insiste sur le fait de faire des phrases "correctes et optimisées", c'est possible, il suffit parfois de changer la tournure de phrase pour avoir d'excellents résultats (sur le positionnement de la page)

Concernant le sous-domaines, j'ai quelques remarques aussi :
Cendrillon a dit:
...
- je suis convaincue (sans pouvoir moi non plus le démontrer par a+b) qu'un sous-domaine bien que considéré comme un nouveau domaine bénéficie néamoins des bienfaits (et des méfaits d'ailleurs dans certains cas) du domaine auquel il est rattaché ... :wink:

Tout à fait d'accord, le sous-domaine est parfaitement bien compris et apprécié des moteurs avec la condition que le site lui-même soit apprécié.
Les s.d. qui ne font qu'une page sont du spam et rien d'autre. Un véritable s.d. doit avoir du contenu pour que ce soit un véritable site. La thématique peut être différente (mais bien sûr pas incompatible) et les s.d. profitent des backlinks entre eux et avec le domaine
(Mon domaine est moins bien connu et crawlé que mes sous-domaines)

Une autre remarque concernant la sandbox, elle s'applique aussi aux s.d. à leur date de création, ainsi vous pouvez être en sandbox pour un seul s.d. et pas pour le reste du site.
La date de l'anniversaire du nom de domaine (ou du s.d.) est nettement un facteur de développement de visibilité pour le site : on rachète le nom, le site est tenu, développé : conséquence les moteurs viennent plus, en particulier, j'ai remarqué des venues fréquentes de google.com et autres pays depuis la date du deuxième anniv. de mon domaine.

Pour ce qui est de faire un sous-domaine par langue, il me semble aussi que c'est une possibilité, mais pas sûr que ce soit la meilleure :
J'ai eu dernièrement des soucis de duplicate content sur un autre site, ou la seule traduction du site laissait un taux trop important de duplicate : google a zappé complètement le s.d. et refusait meme d'intégrer des backlinks...
Une seule possibilité s'est offert : tout changer (template, noms des répertoires, le maximum...). Gare aux amateurs donc...
 
WRInaute discret
url

y'a un truc que je ne comprends pas

les sites leaders en positionnement (amazon, ciao, kelkoo, monsieurprix ...) , y compris webrankinfo ne contiennent pas de mots clés dans les urls

pourquoi faudrait il le faire alors ?
 
WRInaute passionné
Re: url

ysimon a dit:
y'a un truc que je ne comprends pas

les sites leaders en positionnement (amazon, ciao, kelkoo, monsieurprix ...) , y compris webrankinfo ne contiennent pas de mots clés dans les urls

pourquoi faudrait il le faire alors ?

Tu es sur de ça ?
un exemple ici
 
Nouveau WRInaute
je suis peut être hors sujet mais, juste une question, avez testé la nouvelle structure de Voilà ! c'est geniale, l'inscription. vous pouvez ajouter plusieus url à la fois domaine comme sous domaine. pas mal !!!
 
WRInaute accro
Re: url

ysimon a dit:
y'a un truc que je ne comprends pas

les sites leaders en positionnement (amazon, ciao, kelkoo, monsieurprix ...) , y compris webrankinfo ne contiennent pas de mots clés dans les urls
pourquoi faudrait il le faire alors ?

en modifiant le post de RITUEL, l'avais pas vu celui-là. ... Même le Post de Cendrillon ne m'as pas tilté: corrigé (pourtant y avait pensé pour le NDD)

(1) Début 2005, les tests donnait une préférence pour les nom de pages contenant les mots clés. GG ne semble plus trop y faire attention. Pire, dans certains cas (abus), il semble pénaliser la page.

en clair, éviter de faire une page de type -http://www.referencement-internet-google/referencement-google-internet/referencement-1/Google-referencement-internet.php
 
WRInaute discret
Concernant le sous-domaines, j'ai quelques aussi qq remarques aussi :
Cendrillon a dit:
...
- je suis convaincue (sans pouvoir moi non plus le démontrer par a+b) qu'un sous-domaine bien que considéré comme un nouveau domaine bénéficie néamoins des bienfaits (et des méfaits d'ailleurs dans certains cas) du domaine auquel il est rattaché ... :wink:

Gros utilisateurs de sous dom. je peux vous confirmer ce que dit cendrillon.
Un sous domaine est vu par GG domme un nouveau site mais ne subit pas l'effet sandbox.

Si le Sous-domaine est un vrai "mini site dans le site" (le NDD principal en www) avec un thématique bien ditsincte du reste du site, alors il a toute légitimité et GG ne pénalisera rien du tout.

En revanche, par experience, si le sous-domaine est trop lié (avec un mix de lien profond et lien vers la racine du sous-dom) entre les pages du domaine principal et le sous-som alors là vous risquez la pénalité.
En gros il faut le sous -dom ne soit pas linké depuis toutes les pages du domaine principal dans une logique abuisvement SEO...
Somme toute logique ;) Le sous-dom doit rester uen entité presque à part du site principal.
 
WRInaute accro
nicolo a dit:
.
Un sous domaine est vu par GG domme un nouveau site mais ne subit pas l'effet sandbox.
Je ne suis pas d'accord, il me semble que l'effet sandbox est flagrant pour certains sites en .free.fr (évidemment, ce n'est pas la même chose, mais je ne pense pas que ce soit le Top Level Domaine qui soit directement la cause de ton esquive de sandbox).

+1 pour tout le reste.
 
WRInaute impliqué
je confirme que mon site perso en free a bien subit 2 mois de sandbox.

par ailleurs je trouve vraiment intéressant ce que disent Nicolo et l'excellente Cendrillon.
 
WRInaute accro
mr_go a dit:
Quid de l'ancienneté du site ?
c'est peut être un des points qui fait la grande diférence entre sous-domaine et nouveau domaine ... je pense que le sous-domaine bénéficie de l'ancienneté du domaine ... :wink:
 
WRInaute accro
beweb a dit:
Il y a deux ans il me semblait que les moteurs n'aimaient pas accéder à plus de 2 sous Répertoires ?
Google se fiche complètement de la structure physique (tant que la longeur de l'URL reste raisonnable) ... seule lui importe la structure de liens (nombre de clicks pour arriver jusqu'à une page donnée) ... :wink:
 
WRInaute discret
Cendrillon a dit:
mr_go a dit:
Quid de l'ancienneté du site ?
c'est peut être un des points qui fait la grande diférence entre sous-domaine et nouveau domaine ... je pense que le sous-domaine bénéficie de l'ancienneté du domaine ... :wink:

Je confirme à 100%.
L'ancienneté d'un site fait 80% du SEO... Si vous avez un domaine mis a jour régulièrement et datant depuis + de 6 ans (avant 2000 p. ex.) alors c'est une vraie partie de rigolade de faire de l'optimisation... Je connais des sites datant de 1998 avec une technique SEO hyper basique (mais limite spamdexing) sortant sur des requêtes hyper strategique depuis 2 ans...
 
WRInaute discret
Cendrillon

d'accord pour dire que le nombre de clics pour arriver à une page diminue l'efficacité du référencement, donc faut il aussi dire que que l'écriture des url comme a) est meilleure que b) parceque l'on utiliserait moins de tirets.

Autement dit faut-il absolument éviter d'abuser des tirets et organiser les URL à travers des repertoires (à égalité de clics pour accéder à 'url)

si l'url contient des mots clé et que l'url utilise des tirets pour séparer les mots clé, combien de tirets sembleraient acceptables


a) www.exemple.com/abc/def/ghi
b) www.exemple.com/abc-def-ghi
 
Olivier Duffez (admin)
Membre du personnel
beweb a dit:
Cendrillon

d'accord pour dire que le nombre de clics pour arriver à une page diminue l'efficacité du référencement, donc faut il aussi dire que que l'écriture des url comme a) est meilleure que b) parceque l'on utiliserait moins de tirets.

Autement dit faut-il absolument éviter d'abuser des tirets et organiser les URL à travers des repertoires (à égalité de clics pour accéder à 'url)

si l'url contient des mots clé et que l'url utilise des tirets pour séparer les mots clé, combien de tirets sembleraient acceptables


a) www.exemple.com/abc/def/ghi
b) www.exemple.com/abc-def-ghi
je ne vois pas le rapport entre le nb de clics pour arriver à une page et le nb de tirets dans les URL ?
 
WRInaute discret
Olivier

ma question est celle-ci
a) domaine.fr/france/aquitaine/bordeaux/appartement-neuf.html
b) domaine.fr/france-aquitaine-bordeaux-appartement-neuf.html

sachant que la navigation du site pour arriver à Appartement-neuf est identique dans les deux cas (même nombre de clics), quelle est l'écriture de l'URL la plus efficace, et si b) est préférable à combien faudrait-il limiter le nombre de tirets ?

Cette question vient à la suite de la discussion sur le fait que l'utilisation des tirets en grand nombre n'est pas recommandée. Et j'avais cru comprendre que les moteurs n'aimaient pas trop visiter des sous/sous répertoires, mais cela semble avoir changé dans les 2 dernières années
 
WRInaute passionné
sachant que la navigation du site pour arriver à Appartement-neuf est identique dans les deux cas (même nombre de clics)

Le nombre de clics et le classement thématique des informations sont deux notions différentes. ;)
 
WRInaute accro
beweb a dit:
a) domaine.fr/france/aquitaine/bordeaux/appartement-neuf.html
b) domaine.fr/france-aquitaine-bordeaux-appartement-neuf.html

Si ces 2 adresses ne sont pas de la suroptimalisation sur des mots clés dans l'adresse - nom de la page, je m'y connais pas.

Depuis quelques mois, mieux vaut ne pas trop optimaliser dans le nom de la page, surtout si tu rajoute toutes les autres techniques.
 
WRInaute passionné
+1, je pense qu'il ne faut pas oublier l'utilisateur qui voudrait retenir l'URL par exemple.
 
WRInaute discret
a) domaine.fr/france/aquitaine/bordeaux/appartement-neuf.html
b) domaine.fr/france-aquitaine-bordeaux-appartement-neuf.html

il est certain que des url de ce type sont fortement optimisées, mais notre expérience récente semble montrer que GG ignore plutot que banit, par contre les autres moteurs continuent à bien aimer.

Donc, avez-vous la même opinion sur la réaction des moteurs, et ensuite qu'elle est l'écriture la plus efficace.
 
WRInaute accro
beweb a dit:
a) domaine.fr/france/aquitaine/bordeaux/appartement-neuf.html
b) domaine.fr/france-aquitaine-bordeaux-appartement-neuf.html
à mon avis, pour les moteurs c'est strictement identique le "/" et le "-" étant alors tous deux considérés comme des séparateurs ... :wink:

et dans les deux cas, très (trop) suroptimisé ...
 
WRInaute impliqué
oui Cendrillon, mais concrètement, si on a un site avec dans la base plusieurs pays, plusieurs régions par pays, plusieurs villes par régions et plusieurs...
on met des chiffres identifiants dans l'url au lieu de mettre des mots ?
comment ne pas sur-optimiser ?
 
WRInaute accro
luxe-campagne a dit:
oui Cendrillon, mais concrètement, si on a un site avec dans la base plusieurs pays, plusieurs régions par pays, plusieurs villes par régions et plusieurs...
on met des chiffres identifiants dans l'url au lieu de mettre des mots ?
comment ne pas sur-optimiser ?

Je dirais sous domaines dans ton cas. Si les informations sont suffisamment importantes par pays par exemple, ca peut-être une bonne solution.
 
WRInaute discret
Salut,

Faut-il préféré les tableaux <table></table> réservé plutôt pour créer des pages dynamiques au DIV (CSS) (qui rendent la page bien plus légére et rapide à charger) ?

Qu'est ce que préfére Google ?
D'avance merci
@+
 
WRInaute accro
cvbperso a dit:
Salut,

Faut-il préféré les tableaux <table></table> réservé plutôt pour créer des pages dynamiques au DIV (CSS) (qui rendent la page bien plus légére et rapide à charger) ?

Qu'est ce que préfére Google ?
D'avance merci
@+

a mon avis, aucune différence pour les moteurs, ils ne lisent que les textes du résultat
 
WRInaute passionné
Ce n'est pas que les moteurs préferent les div au tables. Mais les div permettent une meilleure structuration du code et du contenu.

Un example : avec des tableaux definissant une mise en page à 2 colonnes avec menu à gauche, le source affichera d'abord le menu puis le contenu. Tandis qu'avec des div positionné en float, il est possible d'avoir le menu à gauche alors que ce menu est situé après le contenu dans le code. Et il est meilleur pour le référencement que le contenu soit positionné haut dans le code...
 
WRInaute discret
French Dread a dit:
Un example : avec des tableaux definissant une mise en page à 2 colonnes avec menu à gauche, le source affichera d'abord le menu puis le contenu.

pas forcement, il suffit d'utiliser un colpsan et colrow pour afficher d'abord le contenu puis le menu. 8)
 
WRInaute accro
French Dread a dit:
avec des tableaux definissant une mise en page à 2 colonnes avec menu à gauche, le source affichera d'abord le menu puis le contenu. Tandis qu'avec des div positionné en float, il est possible d'avoir le menu à gauche alors que ce menu est situé après le contenu dans le code. Et il est meilleur pour le référencement que le contenu soit positionné haut dans le code...
qui peut affirmer que la vue source est encore celle utilisée par les moteurs pour le positionnement des pages ? :roll:

cf. https://www.webrankinfo.com/forum/t/goggle-crawle-les-feuilles-de-styles-css.54442/
 
WRInaute discret
Bonjour,
Je suis loin d'avoir le niveau de cette discution en terme de référencement. Par contre, je constate un fait évident ici, c'est qu'à priori même les référenceurs acidus ne sont pas d'accord entre eux et j'en conclus qu'il y a certaines règles de base mais que les techniques ont tendances à diverger et surtout à changer du tout au tout en un clein d'oeil.

Vraiment pas simple de référencer pour un débutant comme moi :oops:
 
WRInaute accro
Le gros problème mijsroot, c'est que le référencement est un peu une pratique hasardeuse. Le leader sur le marché, Google, est très mystérieux quant à ses pratiques, et cela semble logique. Si ils dévoilaient toutes leurs techniques, cela permettrait à leurs concurrents d'utiliser les mêmes (Microsoft est très fort pour ça)
Et cela permettrait aux spammeurs d'utiliser les failles de leurs techniques pour être mieux positionnés.
D'ou les grandes divergences, suite à diverses expériences.

Cependant, on peut, je pense suivre une grande lignée tout de même, qui est que aujourd'hui, il faut faire au plus naturel possible. Un bon respect de standards du Web, des liens naturels sans forcément de lien retour, pas de pratiques "illégales" (spamdexing, cloacking, ...)
Me semblent être la clé de la réussite.
 
Nouveau WRInaute
+ Localisation géographique du serveur dans le pays que vous ciblez (1)

(1) la technique a empiré. Vous pouvez par exemple sur GG Belgique être bien positiobnné sur une requête avec 2 pages et être positionné sur uniquement Belgique avec 2 autres pages. Difficile à comprendre, mais GG semble de plus en plus tenir compte pour le référencement par pays du pays du site qui envoie le lien. Par exemple, si 2 pages recoivent des liens de GG Belgique elles eront mieux positionnées en uniquement Belgique que les autres qui recoivent des liens venant de sites français plus importants (elle même mieux positionnées en mondial, y compris France ou .com)

ça n'a pas trop de rapport cette explication!

De plus je ne crois pas que la localisation du serveur n'ait d'importance.
J'ai mes serveurs aux Etats Unis et la pluspart de mes visiteurs viennent d'Europe!
 
WRInaute passionné
kazhar a dit:
Cependant, on peut, je pense suivre une grande lignée tout de même, qui est que aujourd'hui, il faut faire au plus naturel possible. Un bon respect de standards du Web, des liens naturels sans forcément de lien retour, pas de pratiques "illégales" (spamdexing, cloacking, ...)
Me semblent être la clé de la réussite.

Je suis bien entendu d'accord avec toi. Mais on peut craindre de nouveaux problèmes de suroptimisation avec l'apparition du web 2.0 en matière de recherche. Je pense notamment aux problèmes liés à la prise en compte des liens orientés "folksonomie" qui peuvent s'avérer être des niches à spam évidentes.
 
WRInaute accro
Le jour ou je verrais une solution parfaite, qui permettra d'obtenir des résultats pertinants dans les moteurs de recherche en évitant tout spam, je me demanderais si je ne suis pas mort et que je ne suis pas au paradis ... ;)
 
WRInaute accro
linkstraffic a dit:
+ Localisation géographique du serveur dans le pays que vous ciblez (1)

ça n'a pas trop de rapport cette explication!

De plus je ne crois pas que la localisation du serveur n'ait d'importance.
J'ai mes serveurs aux Etats Unis et la pluspart de mes visiteurs viennent d'Europe!

Rien que ces 10 derniers jours, j'ai donné des exemples une bonne dizaine de fois: notamment ici https://www.webrankinfo.com/forum/highl ... htm#521938

mais effectivement si tu utilise des .fr, l'hébergement au EU ne change rien. Je n'utilise que des .be tous hébergés en France sauf 1, ils sont tous repris comme belges.
 
WRInaute discret
mais effectivement si tu utilise des .fr, l'hébergement au EU ne change rien. Je n'utilise que des .be tous hébergés en France sauf 1, ils sont tous repris comme belges.

Oui les tld prédominent sur la localisation géographique des serveurs, ce que je ne trouve pas si logique que ca après tout ...

Et il est meilleur pour le référencement que le contenu soit positionné haut dans le code...
je ne suis pas tout à fait d'accord, je n'ai pas observé de différence notamment lors de concours seo sur un mot inconnu ou j'ai pu creer quelques pages différentes pour voir la différence de traitement (memes bl), on lit souvent "mettez vos mots clés les plus importants le plus haut possible dans la page" je crois surtout que le bot cherche la densité dans la page entiere et qu'il cherche les hx, les termes en strong par exemple ou qu'ils soient : en haut au milieu ou en bas
 
WRInaute discret
IX. Liens internes

+ Utilisation du format de liens suivant : <a href="http://www.mon-site.com/pages.html">Libellé du lien contenant si possible le principal mot-clef définissant la page liée</a>

Bonjour,

Je ne m'y connais pas du tout en referencement, et je ne suis pas sur d'avoir bien compris cette phrase: est-ce que ca veut dire que les pages de mon site doivent etre mises sous cette forme (www://....) pour augmenter le ranking???
:?:
 
WRInaute discret
Bonjour

Citation:
IX. Liens internes

+ Utilisation du format de liens suivant : <a href="http://www.mon-site.com/pages.html">Libellé du lien contenant si possible le principal mot-clef définissant la page liée</a>

Est-ce qu'une telle technique n'est pas penalisee par les moteurs de recherches???
:?:
 
WRInaute accro
Fureddo a dit:
Bonjour

Citation:
IX. Liens internes

+ Utilisation du format de liens suivant : <a href="http://www.mon-site.com/pages.html">Libellé du lien contenant si possible le principal mot-clef définissant la page liée</a>

Est-ce qu'une telle technique n'est pas penalisee par les moteurs de recherches???
:?:

Non, bien au contraire cela s'appelle "l'anchor" si tu fais une page sur les papillons, il est normal voire naturel que cette page s'appelle "papillons"
et donc le lien pour aller sur cette page sera :
<a href="http://www.mon-site.com/papilons.html">Papillons</a>
ou "Les Papillons" ou "Collection de Papillons" (faut pas en faire trop non plus)
 
WRInaute accro
ybet a dit:
Rituel avait fait en 02/2005 un post sur les techniques de référencement: https://www.webrankinfo.com/forum/t/la-petite-bible-du-referenceur.23221/ . Un super post mais plus trop à jour. Je vais essayer de me baser sur le post de Rituel même si ce n'est pas la bible ... (les techniques de référencement changent régulièrement) J'espère que dans 6 mois, un autre refera le même tropic actualisé. Suivre ce qui suit ne garantit pas la première place mais un bon emplacement (c'est déjà pas si mal).

dans le post de départ, j'avais écrit: J'espère que dans 6 mois, un autre refera le même tropic actualisé

serait tepms que celui ci soit verroullé et qu'un autre post prenne le départ. Quelques pistes pour GG:
. le mot dans la page ne suffit plus
. les liens sont moins repris (surtout s'ils sont internes)
. ....

En décembre 2006 / janver 2007 ca doit être modifier. En espérant que celui qui débute le sujet essaye qye ce soit collaboratif comme celui-ci.
 
WRInaute impliqué
Bonjours,

X. Contenu imagé d'une page

+ Nom des images consciencieusement choisi (1)
+ Saisie du contenu alternatif si l'image a son importance au sein de la page

(1) toujours les tests d'Olivier de l'époque ....
(2) pour avoir essayé fin 2005 d'insérer les mots clés dans les balises images, perte de positionnement par ... suroptimalisation

ref le (2):
quelles balises images ? alt ?
il y a t-il quelque par sur wri ce test en plus détaillé ?


à plus,
 
WRInaute accro
st-antigone a dit:
Bonjours,

X. Contenu imagé d'une page

+ Nom des images consciencieusement choisi (1)
+ Saisie du contenu alternatif si l'image a son importance au sein de la page

(1) toujours les tests d'Olivier de l'époque ....
(2) pour avoir essayé fin 2005 d'insérer les mots clés dans les balises images, perte de positionnement par ... suroptimalisation

ref le (2):
quelles balises images ? alt ?
il y a t-il quelque par sur wri ce test en plus détaillé ?


à plus,

ALT, essayé sur le site d'un gite il y a deux ans, descendu au fond des abimes. le robot lit tous les textes ....
 
WRInaute accro
Fureddo a dit:
Bonjour

Citation:
IX. Liens internes

+ Utilisation du format de liens suivant : <a href="http://www.mon-site.com/pages.html">Libellé du lien contenant si possible le principal mot-clef définissant la page liée</a>

Est-ce qu'une telle technique n'est pas penalisee par les moteurs de recherches???
:?:

Comme mes collègues, avec une nuance. Quelques liens reprenant papillon, oui. Tous les liens reprenant seulement le mot papillon, ca ressemble fortement à essayer de passer en force sur le mot papillon. GG en conclus que les liens sont pas naturels et sanctionne. Mais la parade est déjà connue depuis des mois, on alterne (en interne comme en liens externes) par découvertes du papillon, le papillon, site sur les papillons (remarque le pluriel, même si GG reconnait le singulier du pluriel comme le même mot), ....
 
Statut
N'est pas ouverte pour d'autres réponses.
Discussions similaires
Haut