Résumé des techniques de référencement février 2008

ybet

WRInaute accro
Pour en avoir discuté avec quelques anciens en MP, on en a conclu que refaire un post reprenant les techniques actuelles de référencement pourrait être intéressant. Ce genre de post a déjà été fait deux fois
en février 2005 par rituel https://www.webrankinfo.com/forum/t/la-petite-bible-du-referenceur.23221/
en juin 2006 par moi-même https://www.webrankinfo.com/forum/t/techniques-de-referencement-en-juin-2006.53129/ A l'époque il avait été également posté en "Débuter" pour être transféré par Olivier dans Techniques avancées. Pourtant cette fois je préfèrerais qu'il reste en débuter ...
Comme lors des deux premiers, celui-ci doit être collaboratif. Même si j'aurais pas de mal à en apprendre sur le référencement à beaucoup de ceux qui viennent ici, quelques membres sont beaucoup plus costaud (pour ne pas flatter leur Ego, je ne les nommerais pas :oops: ) ou même des techiques que je pense correctes et basées sur l'expérience sur mes sites peuvent très bien ne pas fonctionner sur d'autres sites. Merci d'avance à tous les nouveaux et surtout anciens qui participeront à ce posts.

Pourtant j'avais posté sur le dernier que ca devait être un autre qui reprendrait le même post mis à jour vers 2007 mais ... une majorité des réponses passe actuellement (trop ...) lit WRI, le post de Madrileño, ... et les habitués savent que la moitié des anciennes réponses sont fausses actuellement. Déjà, Google pénalise les sites trop optimalisés, ce qui n'était pas trop le cas il y a deux ans.

Je reprend la même technique:

Légende :

+ Libellé : Positif pour le référencement
-Libelle : Néfaste pour le référencement
~ Libelle : Répercussions non prouvées


I. L'hébergement

+ Localisation géographique du serveur dans le pays que vous ciblez dans le cas des .com, .net, .info, .... les .fr, .be, .... sont d'office localisé dans le pays du lien de domaine quelque soit le lieu d'hébergement (1) (2)
- Pannes prolongées
hébergement lent, messages d'erreur SQL[/size]
(1) en 2006, on était en pleine géolocalisation. C'est toujours d'application. Pourtant Google permet maintenant via le compte webmaster de géolocaliser autrement. (j'ai pas retrouvé le post). Selon ma propre expérience, les .eu ont un status à part (à confirmer), ils sont géolocaliser dans le pays d'hébergement mais aussi suivant les liens qui pointent dessus. J'ai un EU présent sur Google.be - pages belgiques et google.fr pages france.
(2) la géolocalisation sur la france (par exemple) permet d'être visible sur les recherches sur google.fr pages frances mais (en plus) avantage nettement le site par rapport aux autres localisés dans un autre pays.

II. Le nom de domaine

+ Extension correspondant au pays que vous ciblez
- Redirection de type Ulimit
- Plus de trois mots dans le nom de domaine
+ Mots clefs dans le nom de domaine

Contrairement à 2005, on sait maintenant que le nom de domaine ne favorise pas directement sur une recherche. Par contre, comme les liens venant des forums reprennent souvent simplement l'adresse, ca a un petit avantage. Par contre, les nom de domaines courts favorise les accès directs. Si vous utilisez plusieurs mots dans le nom de domaines ou dans l'adresse de la page, préférez le - comme séparateur.
Attention, une adresse trop optimalisée défavorise.

III. Architecture du site

- Séparation des thèmes distincts en sous-domaines portants le mot-clef du thème abordé

+ Elaboration d'une page plan du site ou même un sitemap
- Changements de topologie sans redirections
+orrganisation d'un thème en répertoires portants le mot-clef du sous-thème abordé

La grosse nouveauté vient des sous-domaines. Google voit toujours un sous-domaine comme un site distinct par contre ... Cette technique utilsiée par les spamsmeurs avec des sous-domaines contenant peu de pages est dans le collimateur de Google. Sous domaine ou sous-répertoires, ... la première pour des groupes de pages importants, la deuxième pour peu de pages.

IV. Structure d'une page, contenu

Mots clefs dans le titre de la page (1)
Mot clé dans la description (2)
+ Utilisation des "-" pour la séparation des mots-clefs dans le nom de la page (3)
les mots dans la page (4) (5)
- Utilisation de frames (6)
- Duplicate content (7)
(1) le titre est toujours vu comme la partie principale de la page.
(2) la description n'est plus utilisée en référencement. Par contre, c'est elle qui apparaît dans les recherches. Alors autant qu'elle soit propre et intéresse le visiteur.
(3) même remarque que pour le nom de domaine, mais autant ne pas en faire trop, même si ca facilite la maintenance du site pour le webmaster.
(4) même si des cas inverses existent, sans le mot sur la page, difficille d'être positionné.
(5)ici aussi, une petite nouveauté, ... Google a nettement ammélioré ses recherches en quelques années. Il comprend pour la majorité des mots en Français que le singulier et le pluriel sont les mêmes mots. Il parvient même a concevoir des synonymes comme restaurant et restaurateur. Les techniques consistant à bombarder la pages de synonymes commence tout doucement à être néfaste.
(6) ...
(7) Duplicate content, mêmes textes ou très similaires entre mêmes pages d'un site. Une première solution est déjà de mettre un titre et une description différente, mais souvent pas suffisant.
Pour des pages similaires de deux sites différents, Google semble en prendre une ou l'autre. Par contre, deux ndd avec exactement le même contenu sur les pages déclasse généralement les deux (cas d'un FR et d'un .com de la même firme par exemple)

V. Autres balises

Non présence des balises <HTML>,<HEAD>,<BODY> (1)
- Non spécification du doctype, charset et de la langue

(1). là aussi du changement. une page avec deux balise <head> passe sur Google pour avoir fait un tests malgré moi l'année dernière (il prend la première). Par contre, MSN et Yahoo bloque la page au deuxième <title>
les bots sont maintenant suffisamment grands pour reconnaître la langue. Seule exception, pour ceux qui mettent des adsences avec quelques mots dans d'autres langues dans le texte (et c'est même pas réellement prouvé) par contre:
Didier_S a dit:
sans charset, Google peut mal interpreter les accents dans les pages / les title / desc si ceux-ci ne sont pas passés au "htmlentities". Tu te retrouves donc avec des pseudos-caractères en UTF8, qui, d'une, font moche, mais qui, à mon avis, ne sont pas reconnus comme des accents...

VI. Contenu textuel d'une page

+ Structuration du document à l'aide de balises Titres <Hx> contenant si possible les mots-clefs ciblés (1)
+ Mise en valeur des mots-clefs à l'aide de la casse, des styles (Gras,italique,souligné) et de la variation de la taille du texte. (2)
Utilisation des DIV en remplacement des tableaux. (3)
- Tout texte non visible ou non cohérent pour les visiteurs (4)
- Utilisation de flash (5)
- Occurence des mots-clefs trop élevée
- Abus de mises en forme autour des mots-clefs : Gras, italique, souligné, couleurs, <Hx> ...
- Pages vides ou en construction

(1). là ca commence mal. Même si je suis pas réellement certain, Google commence à se méfier des textes structurés en H1, h2, ... 'essaye actuellement de ne plus mettre que h1, ... (mais là la discussion est ouverte.
(2) plus vu réellement de pertinence en utilisant ce vieux trucs. Pas de différence non plus entre <b> et <strong>
(3) à part pour mettre dans le code un texte dans le dessus mais positionné pour le visiteur en dessous, complètement identique.
Un exemple : avec des tableaux definissant une mise en page à 2 colonnes avec menu à gauche, le source affichera d'abord le menu puis le contenu. Tandis qu'avec des div positionné en float, il est possible d'avoir le menu à gauche alors que ce menu est situé après le contenu dans le code. Et il est meilleur pour le référencement que le contenu soit positionné haut dans le code...[/quote]
(4) même si ceux qui utilisent cette technique diront par MP qu'elle fonctionne encore, ... le spams report fonctionne pas vraiment d'accord, par contre le même par le compte Google webmaster a l'air de faire plus de dégat.
(5) Google utilise maintenant une technique reprise par adobe. Il reconnait les liens et textes dans les petites animations (pas 10 minutes :wink: ) mais ca devrait s'amméliorer.

VI. Liens internes

+ Utilisation du format de liens suivant : <a href="http://www.mon-site.com/pages.html">Libellé du lien contenant si possible le principal mot-clef définissant la page liée</a>
+ URL rewriting systématique des pages contenant des arguments (1)
- Utilisation de Javascript
- Utilisation de sessions

(1) une paramètre passé n'est pas forcément désavantagé par rapport à l'URL rewrinting. A part si vous passé 3 paramètres et plus (MSN bloque à 3), sinon, strictement identique. (mais attention aux liens forums).
VII. Contenu imagé d'une page

+ Nom des images consciencieusement choisi (1)
+ Saisie du contenu alternatif si l'image a son importance au sein de la page (1)

(1) attention de ne pas en faire trop, Google n'est pas si idiot que l'on croit.

VIII. Liens externes (Backlinks)

+ PageRank de la page qui lie élevé(1)
+ Faible nombre de liens externes sur la page qui lie (2)
+ Nombre de liens pointant vers votre site élevé (3)
+ Utilisation du format de lien suivant : <a href="http://www.mon-site.com/">Mot-clef</a> (4)
+ Titre de vos backlinks variés tout en restant ciblé sur les mot clefs que vous privilegiez (5)
~ Evolution progressive du nombre de Backlinks (6)
- Fermes de liens (Link farming)
- Redirections sauvages
- Attribut rel="nofollow"

C'est ici que commence les véritables grandes manoeuvres. :twisted:
(1) le PR affiché n'est probablement plus le PR réel. (un ancien PR5 est maintenant PR2 et continue a garder ses visiteurs). En décembre 2007, Google a également nettement modifié le fonctionnement.
. les sites supposés vendre des liens se sont fait sanctionné par une descende du PR (l'exemple le plus connu ici est WRI :roll: ) mais ont gardé leurs visiteurs.
. des sites supposés en mettre trop se sont fait pénaliser au niveau PR et visiteurs (le cas le plus connu ici est Big-annuaire).
. des pages reprenant un lien de PR moyen (3-4) visiblement trop lien cadeau se sont fait grisées (en alternance selon l'humeur du moteur, grisée, plus dans le cache, plus dans les recherches, ...)
. des pages reprenant principalement des liens (autant externes qu'internes uniquement d'aillieurs) ont subi le même phénomène.

J'ai d'aillieurs beaucoup travaillé la-dessus https://www.webrankinfo.com/forum/t/pages-grisees-on-y-va.84630/ Au passage, une partie des pages est redevenu PR2, mais plus trouvées dans les recherches). En clair, tout ce qui semble essayer de donner uniquement du PR à une autre page est sanctionnée. Une page grisée est normale quand elle débute par contre après une GD (on va l'appeler comme celà) avec des liens de PR supérieurs, c'est une sanction. Google s'essaye aux liens naturels avec comme disait Szarah des dégats collatéraux. Résultats, faites vos liens intelligemments.
(2) sauf qu'un seul lien externe sur une page avec peu de mots sanctionne la page.
(3) les annuaires se développant comme des champignons (rien de mieux pour les adsences :oops: ), mieux vaut 5 bons que 30 (même avec les 5 bons dedans). Pense même que Google sanctionne des anciens sites qui recoivent ce genre de liens, du moins au début.
(4) les liens script (quoique), redirection, ... ne sont toujours pas vus par les moteurs.
(5) partant du principe que Google joue maintenant au "naturel", fallait pas trop réver.
(6) en 2006, kazhar était pas trop d'accord mais bon. Vous démarrez un nouveau site, deux techniques de liens externes, soit directement le compresseur avec tous les liens possibles. Une fois passée la sandbox, le site prend sa place (souvent en mieux), mais attention à ce que Google ne pense pas que c'est un achat (on se souviendra de Blogger .... https://www.webrankinfo.com/forum/t/blackliste-et-innocent.85224/). Dans l'autre cas, pas forcément de sandbox, donc une montée régulière mais pas forcément les meilleurs places non plus après 6 mois.

Même si les avis sont nettement divergeants, on parle de trustrank pour des sites vu comme de confiance par Google, surtout s'ils sont dans la même thématique

je compte sur tous les autres membres de WRI pour amméliorer ce post.... et un autre pour en recréer un plus à jour dans quelques mois en fonction de l'évolution et de votre propre expérience.
 

Madrileño

Membre Honoré
Merci beaucoup Ybet pour toutes les informations. ;)

On peut citer en négatif :
- Utilisation de sites en full flash.
- Sur-optimisation à éviter.

Concernant le PR un post spécial :
https://www.webrankinfo.com/forum/t/la-verite-sur-le-pagerank.28534/

Les redirections 302 et les liens :
https://www.webrankinfo.com/forum/t/google-prend-en-compte-les-liens-de-type-redirection-302.86934/

Je viens de l'ajouter pour la bienvenue :
https://www.webrankinfo.com/forum/t/recapitulatif-seo-kit-madrileno.191334/
 

Michel

WRInaute passionné
(1) le titre est toujours vu comme la partie principale de la page. (ok)
(2) la description n'est plus utilisée en référencement. (je ne suis vraiment pas totalement convaincu...) PAr contre, c'est elle qui apparaît dans les recherches. (pas toujours, mais surtout si le contenu de la page est pauvre)

Pour ma part je vois de temps à autre des pages au contenu très pauvre qui se placent bien sur des requêtes parce que les mots sont uniquement en balise description, mystere !?

Merci pour ce post :wink:
 

Bellegarde-webb

WRInaute impliqué
Michel a dit:
Pour ma part je vois de temps à autre des pages au contenu très pauvre qui se placent bien sur des requêtes parce que les mots sont uniquement en balise description, mystere !?

Je l'ai constaté aussi. :?:
Merci pour ce post Ybet :)
 

ybet

WRInaute accro
Michel a dit:
(1) le titre est toujours vu comme la partie principale de la page. (ok)
(2) la description n'est plus utilisée en référencement. (je ne suis vraiment pas totalement convaincu...) PAr contre, c'est elle qui apparaît dans les recherches. (pas toujours, mais surtout si le contenu de la page est pauvre)

Pour ma part je vois de temps à autre des pages au contenu très pauvre qui se placent bien sur des requêtes parce que les mots sont uniquement en balise description, mystere !?

Merci pour ce post :wink:

des sites en frame aussi :wink: , mais en l'absence de contenu, Google privilégie beaucoup plus les liesn externes. C'est du moins ce que j'en ai conclu en analysant un paquet de sites régionaux pas du tout fait pour le référencement ... C'est une autre explication.
 

KOogar

WRInaute accro
+ 1 reco

- parler de l'importance du alt dans les images
- pour le nom de domaine tu parles de prendre une Extension correspondant au pays ciblé... et les (.com.net.org ) t'en fais quoi ?
 

ybet

WRInaute accro
KOogar a dit:
+ 1 reco

- parler de l'importance du alt dans les images
- pour le nom de domaine tu parles de prendre une Extension correspondant au pays ciblé... et les (.com.net.org ) t'en fais quoi ?

Déjà présent dans 1. Hébergement ....

Pays d'hébergement ... sans compter la nouvelle fonctionalité du compte webmaster aussi citée même si elle a pas l'air de faire une réelle géolocalisation.
 

ybet

WRInaute accro
Doudoucarro a dit:
Salut à tous,

est ce que l'emploi du html strict validé par le W3C est un point positif important?

A+

non, je pense même pas qu'une seule de mes pages passe le W3C avec moins de 10 erreurs. Par contre, ca favorise l'utilisation des navigateurs sans erreurs, c'est donc bénéfique pour les visiteurs.
 

Kmacleod

WRInaute passionné
Bon post et surtout bonne présentation.

Qu'en est il des .org, j'avais même lu que google ne sanctionnait pas et que les BL sont un bon plan pour les sites cibles.
Sauf que google sanctionne quand même ce net linking là avec à l'arrivée un PR 0 (PR affiché, toujours dans l'index, c'est pas un sand box). Ici c'est la cas du PR cadeau mentionné : le .org n'apporte rien en soi
 

Réseau ICARE

Nouveau WRInaute
Merci beaucoup pour ce post!

Petite question dont la réponse peut apporter de l'eau à ce moulin.
Quid de l'utilisation de scripts (et notamment des DIV en display:none/display:block) pour faire des menus dynamiques sans utiliser Flash? Google fait-il bien la différence entre une DIV cachée qui contient 4 liens et une DIV cachée qui contient 300 mots-clefs?
 

Leonick

WRInaute accro
Kmacleod a dit:
Bon post et surtout bonne présentation.

Qu'en est il des .org, j'avais même lu que google ne sanctionnait pas et que les BL sont un bon plan pour les sites cibles.
je n'ai aucun problème sur le positionnement de mes .org
J'ai des .org pour des associations, car le .asso.fr ne me plaisait pas vraiment et que donc, .org se rapprochait plus de l'optique du .org, même si maintenant, on prend les tld que l'on trouve pour avoir des mots clés dans le ndd, même s'ils ne servent plus à rien dans le positionnement avec gg
 

ludow

Nouveau WRInaute
Leonick a dit:
Kmacleod a dit:
Qu'en est il des .org, j'avais même lu que google ne sanctionnait pas et que les BL sont un bon plan pour les sites cibles.
je n'ai aucun problème sur le positionnement de mes .org
J'ai des .org pour des associations, car le .asso.fr ne me plaisait pas vraiment et que donc, .org se rapprochait plus de l'optique du .org, même si maintenant, on prend les tld que l'on trouve pour avoir des mots clés dans le ndd, même s'ils ne servent plus à rien dans le positionnement avec gg

même question sur les .edu et .gov, j'ai déjà croisé des liens sur des .edu parlant d'umberto eco qui linkaient vers des comparateurs...
c'est du lien cadeau ok mais quid du poids de ces liens ?
 

mike006

WRInaute occasionnel
Merci beaucoup ybet, c'est très synthétique et utile. Qu'en est-il des attributs title sur liens ? Il y a déjà eu pas mal de posts là dessus mais cela vaut peut-être la peine d'en reparler ici ?
 

Leonick

WRInaute accro
ludow a dit:
j'ai déjà croisé des liens sur des .edu parlant d'umberto eco qui linkaient vers des comparateurs...
c'est du lien cadeau ok mais quid du poids de ces liens ?
ou du hacking, si les scripts ne sont pas sécurisés.
 

ybet

WRInaute accro
mike006 a dit:
Merci beaucoup ybet, c'est très synthétique et utile. Qu'en est-il des attributs title sur liens ? Il y a déjà eu pas mal de posts là dessus mais cela vaut peut-être la peine d'en reparler ici ?

A l'époque actuelle, je pense que tout ce qui semble pas naturel va voller à la trappe. Le petit coup de décembre est juste un avertissement, ... la suite viendra à mon avis dans une dizaine de mois, le temps pour les spécialistes google d'analyser les retombées (lit dégats collatéraux) sur les sites qui n'ont rien à voir avec des techniques spéciales.

Ce qui s'est passé en décembre (et continue d'aillieurs) est juste un changement de stratégie de Google. Ca ne fera pas mourir les référenceurs, juste nous faire changer un peu notre manière de travailler. Ceux qui travaillent proprement devraient pas trop avoir de problèmes. Toutes les techniques tordues (disons pas standard, pas naturle) vont finalement y passer, le temps que Google vérifie si ca touche pas trop des sites propres. L'algo doit être déjà si compliqué que le moindre changement majeur doit en entrainé d'autres pas forcément voulu par le moteur.
 

KOogar

WRInaute accro
je comprend que Google peaufine ses filtres pour jeter ceux qui jouent avec son algo mais la je pas le rapport avec remplir l'attribut title..
 

mike006

WRInaute occasionnel
je pense que c'est toujours pareil, avoir l'attribut lien sur ce type de lien :
<a href="-/submit/add_url.html" title="Proposer votre site">Proposer votre site</a> (exemple de HawkEye pris dans une ancienne discussion) ne doit pas apporter grand chose, par contre mis sur des mots type "ici" ou "page suivante", il doit avoir une utilité.
Là encore le problème comme le dit ybet ce sont les abus qui peuvent apparaitre :
<a href="-/photos-provence" title="Découvrez les photographies de la provence">photos de la provence</a> on voit souvent ce type de title dans des sites et selon moi c'est limite trop.
 

Jean-Yves Willmann

WRInaute discret
Bonjour à tous,

Bravo pour ce beau travail.
Bien qu'étant beaucoup moins qualifié que certains ici j'aurais tendance à être d'accord avec à peu près tout, sauf peut-être avec ça :

ybet a dit:
[A PROPOS DES LIENS INTERNES :] + Utilisation du format de liens suivant : <a href="http://www.mon-site.com/pages.html">Libellé du lien contenant si possible le principal mot-clef définissant la page liée</a> (...)
Je précise ma pensée : OK bien sûr pour que le lien contienne le mot-clé ; mais l'écriture du lien interne comme s'il s'agissait d'un lien externe (<a href="http://www.mon-site.com/Dossier1/page.html"> au lieu de <a href="../Dossier1/page.html"> par exemple), je crois qu'il faut s'en méfier un peu.

J'ai fait quelques tests en ce sens dernièrement, et bref, je crois qu'il vaut mieux rédiger EN GENERAL les liens internes sans le http:// .

Si d'autres ont fait l'expérience inverse, je suis à l'écoute...

Cordialement
Jyw
 

KOogar

WRInaute accro
mike006 a dit:
je pense que c'est toujours pareil, avoir l'attribut lien sur ce type de lien :
<a href="-/submit/add_url.html" title="Proposer votre site">Proposer votre site</a> (exemple de HawkEye pris dans une ancienne discussion) ne doit pas apporter grand chose, par contre mis sur des mots type "ici" ou "page suivante", il doit avoir une utilité.
Là encore le problème comme le dit ybet ce sont les abus qui peuvent apparaitre :
<a href="-/photos-provence" title="Découvrez les photographies de la provence">photos de la provence</a> on voit souvent ce type de title dans des sites et selon moi c'est limite trop.

Merci pour cette explication plein de bon sens. ybet m'avait laisser dans le vague hier..
 

WebRankInfo

Olivier Duffez (admin)
Membre du personnel
Très bonne initiative ybet, merci !

mike006 a dit:
je pense que c'est toujours pareil, avoir l'attribut lien sur ce type de lien :
<a href="-/submit/add_url.html" title="Proposer votre site">Proposer votre site</a> (exemple de HawkEye pris dans une ancienne discussion) ne doit pas apporter grand chose, par contre mis sur des mots type "ici" ou "page suivante", il doit avoir une utilité.
Là encore le problème comme le dit ybet ce sont les abus qui peuvent apparaitre :
<a href="-/photos-provence" title="Découvrez les photographies de la provence">photos de la provence</a> on voit souvent ce type de title dans des sites et selon moi c'est limite trop.
Je ne vois pas en quoi le 2nd exemple est abusif, il décrit parfaitement ce que l'internaute va trouver s'il clique.
Pour ma part je n'ai pas encore vu de test qui démontre que Google tient compte de l'attribut title du lien.

En ce qui concerne la remarque de Jean-Yves, là non plus je n'ai encore pas vu de test qui démontre qu'il vaut mieux faire des liens en absolu ou en relatif dans tel ou tel cas : les moteurs se ramènent tout le temps à des URL complètes
 

titiplanti

WRInaute occasionnel
D'ailleurs google lui-même recommandait les url absolues. (C'était écrit quelque part sur un des blogs de google ou sur wri ...)

(et merci ybet d'avoir concentré toute cette information ici : c'est très bon !)
 

mike006

WRInaute occasionnel
Je ne vois pas en quoi le 2nd exemple est abusif, il décrit parfaitement ce que l'internaute va trouver s'il clique.
En effet mais le texte du lien dans cet exemple est assez explicite, je pense que c'est ce que voulait dire ybet quand il parlait de sur-optimisation.
 

PM-maroc

Nouveau WRInaute
Liens internes - lien systématique sur un mot clé

Salut,

Beau travail de compilation des informations. Je vois assez régulièrement des sites qui mettent systématiquement un lien vers leur page d'accueil à chaque récurrence du mot ou du groupe de mots clés sur le page. Par exemple : le mot "Paris" revient 10 fois dans l'article, on retrouve 10 liens avec pour ancre "Paris" pointant vers mon site.

Pour l'instant, cela semble affecter positivement le positionnement des sites qui utilisent cette technique. J'ai toutefois des doutes sur son efficacité future. Ne devrait-elle pas être abordé dans ton point VI sur les liens internes ?
 

ybet

WRInaute accro
Re: Liens internes - lien systématique sur un mot clé

PM-maroc a dit:
Salut,

Beau travail de compilation des informations. Je vois assez régulièrement des sites qui mettent systématiquement un lien vers leur page d'accueil à chaque récurrence du mot ou du groupe de mots clés sur le page. Par exemple : le mot "Paris" revient 10 fois dans l'article, on retrouve 10 liens avec pour ancre "Paris" pointant vers mon site.

Pas sûr, mais je constate actuellement que deux liens vers une même page externe reprenant duex textes différents n'a pas l'air de faire passer ni l'une ni l'autre, un seul lien oui.

Alors, 10 fois le même lien je pense pas que ca va faire grand chose. Probablement un reste des vieilles techniques .
Si d'autres ont un avis (expériences) différents sur ces liens répétitifs, on verra pour modifier le post initial.
 

blogger

WRInaute occasionnel
Bonjour Ybet,

une reco également.

Dans les facteurs négatifs, tu pourrais ajouter le contenu dupliqué. Avec les cms, cela arrive facilement et cela plombe un site monstrueusement.

j'ai un site de 2 mois, 4 pages et 100 mots à tout casser, c'est juste un NDD qui vieillit un peu, il n'est lié de nulle part, sauf éventuellement un lien quelque part dans les tréfonds de la plateforme wordpress .

Sur une requête qui donne 5 résultats lors d'une recherche classique, je suis premier.
Si l'on choisit l'option " relancer la recherche en incluant les pages ignorées." la recherche retourne 1200 résultats et le premier est un site de 230.000 pages qui présente plus de 1000 pages incluant les mots clé de la recherche.

Ce qui le déclasse lors d'une recherche classique, c'est que les 1000 pages en question sont considérées comme "duplicate content" ( même si elles sont toutes différentes pour un humain, le titre et la balise méta description sont individuels également ) et le premier venu peux lui souffler la première place sans rien faire.
 

tigars

Nouveau WRInaute
bonjour et merci pour ton post,

une question par rapport à :

+ Elaboration d'une page plan du site ou même un sitemap

Google indexe maintenant les pages très rapidement, quel est l'intérêt de mettre un sitemap ?
 

ybet

WRInaute accro
tigars a dit:
bonjour et merci pour ton post,

une question par rapport à :

+ Elaboration d'une page plan du site ou même un sitemap

Google indexe maintenant les pages très rapidement, quel est l'intérêt de mettre un sitemap ?

Pour ma part, aucun. Jamais utilisé de sitemap et seul mon site principal à une page plan (pas mis à jour depuis au moins deux ans). Par contre la structure interne des liens internes de mes sites me le permet. Un site avec de nombreux chapitres et sous chapitres aura du mal à se faire indexer correctement sans celà.
 

pcamliti

WRInaute impliqué
Le sitemap boost le référencement a grande vitesse.. et comme le précise Ybet, certains fichiers un peu éloignés de la racines peuvent intégrer plus rapidement GG... et donc être bénéfique en trafic.

Merci ybet pour le travail ! :wink:
 

Lomax7

WRInaute impliqué
Je me demandais si les pages contenant trop de liens externes
comme les pages "liens" étaient pénalisées ? Qu'en penses-tu Ybet ?
Je parle pas de sites qui vendent des liens, juste échange de liens.

En ce qui concerne les paramètres dans les url, il est vrai
que Google les reconnais, et les référence.
L'url-rewriting ne va t'il servir à rien bientôt ?

En tout cas, merci Ybet, pas mal de choses que je ne savais pas.
 

ybet

WRInaute accro
Lomax7 a dit:
Je me demandais si les pages contenant trop de liens externes
comme les pages "liens" étaient pénalisées ? Qu'en penses-tu Ybet ?
Je parle pas de sites qui vendent des liens, juste échange de liens.

Très difficile à dire, d'aillieurs trop ou 1 change pas grand chose. On repasse par les tests sur les pages "grisées depuis décembre".

Mais certaines pages sur mes sites n'y sont pas, et même indexées. J'avoue, je fais jamais rien comme les autres :oops: (en référencement, je prend un malin plaisir à dépasser les 100 liens externes si nécessaire, le plus en prend 1072 pour l'instant).
-http://www.darut.be/annuaire-commerces.php cette page est bien notée avec plus de 170 liens externes.
par contre, -http://www.darut.be/annuaire-construction.php est complètement dans les choux aux niveau recherches

Les deux ont des liens externes en follow et en no follow, suivant la qualité du site généralement. Avec des pages grisées, certaines en follow complète passe pas, d'autres oui. L'inverse est vrai j'ai également fait des tests. Et jamais vraiment compris pourquoi.
Par contre, la principale -http://www.darut.be/annuaire.php (là plus de 1000 liens externes (toujours mélangés follow-nofollow) ne passe que sur des requêtes très spécifiques.

Les constructions sont strictement les mêmes. En gros, envoyer trop de liens peut ou pas pénaliser la page qui envoie (et honnêtement pas un peu).

Plus marant, dans les sous domaines:
-http://florenville.darut.be/annuaire.php est présente ou pas, ca change selon l'humeur de google (quoi'il a l'air de l'avoir laissé visible depuis quelques semaines). Quand il n'en tient pas compte, suis n5 sur GG.be -> Florenville. Quand il en tient compte, N6 et le 5 est un qui reçoit un lien de cette page. :twisted:

Donc effectivement, les liens externes peuvent pénaliser la page, mais ca n'a pas l'air de dépendre du nombre de liens. Je le soupconne de sanctionner les liens vers des sites jugés pas acceptables (y compris avec le nofollow peut-être).
 

webmasterdemonsite

WRInaute impliqué
bravo pour l'article !

tu peux rajouter:

site accessible à une seule adresse (avec ou sans les www, mais pas les deux), si tu peux rajouter le code du htaccess, ca evitera peut etre a beaucoup de le chercher...

reco...
 

Madrileño

Membre Honoré
Re: liens des sous domaine

webmediaservices a dit:
il semblerais que les liens des sous domaine sont moins pertinant qu'en 2007
En effet il y a pas mal de changements sur Google.

Bienvenue sur le forum Webrankinfo.

Vous pouvez remplir votre profil sur Webrankinfo.

Les membres (qui le souhaitent) se présentent.

N'hésitez pas à participer sur le forum pour en savoir plus sur le référencement en réalisant des échanges avec la communauté.
 

Madrileño

Membre Honoré
Cela permet aussi aux utilisateurs du forum de voir ou revoir le : Résumé des techniques de référencement février 2008. ;)
 

nutri74

Nouveau WRInaute
Je tenais à vous faire remarqué que l'histoire de ne pas mettre du flash etc sur certain site este encore a prouvé ...
en effet un des site que j'ai réalisé sort parfaitement sur google avec toute les tares que vous lui accorderé

- Très peu de contenu
- Site casi full flash
- Pas de lien avec mots clé
- pas de backlink
- pas de plan de site
- etc...

Pourtant il squatte la premiere place devant schmidt mobalpa et compagnie, quelqu'un aurais une idée de comment ce site à pu se positionner ainsi ?

site en question : http://www.harmonycuisines.com

https://www.google.fr/search?hl=fr&q=agencement+cuisine&btnG=Rechercher&meta= 3eme position sur 2,7 million [...?hl=fr&q=cuisine+haut+de+gamme&meta=&aq=f&oq=[/url]
1ere position sur 750 milles

A mon avis google doit avoir un systeme de calcul du temps passer sur un site pls un utilisateur passe du temps sur un site avant de revenir a la page de resultat plus le site devient pertinent pour Google.

Alors faites de site beau qui attire les utilisateurs !
 

L.Jee

WRInaute accro
Le temps ne veut rien dire ... Le visiteur cherche une info, il l'a trouve en 10 seconde, site pertinent. Alors que si il avait mis 10 minutes, ça aurait voulu dire que le site n'était pas pertinent (la page devrai-je dire).
 

nutri74

Nouveau WRInaute
L.Jee a dit:
Le temps ne veut rien dire ... Le visiteur cherche une info, il l'a trouve en 10 seconde, site pertinent. Alors que si il avait mis 10 minutes, ça aurait voulu dire que le site n'était pas pertinent (la page devrai-je dire).

Jaurais dit linverse une personne qui reste longtemps sur un site plus de 30s (je regarderai dans les stats) google doit considerer sa comme plaisant pour l'utilisateur et donc lui donner du bonus et a contrario un site ou on trouclve rien du premier coup d oueil on quitte rapidement pour voir les autres resultats de google... Je trouve sa logique... Surtout lexemple est flagrant quand on cherche des solutions a des problemes dans les forums.
 

ybet

WRInaute accro
nutri74 a dit:
en effet un des site que j'ai réalisé sort parfaitement sur google avec toute les tares que vous lui accorderé

- Très peu de contenu
- Site casi full flash
- Pas de lien avec mots clé
- pas de backlink
- pas de plan de site
- etc...

Alors faites de site beau qui attire les utilisateurs !

On va débuter par le début .... Beaucoup de sites SANS contenu visible par Google sont bien positionné sur une requete ou deux .... (guère plus) . Dans ce cas, c'est uniquement lié aux liens externes (et là il en faut pas beaucoup) + le title.
C'est idem pour les sites en frame comme dans l'exemple ci dessous ... https://www.google.be/search?sourceid=navclient&hl=fr&ie=UTF-8&rlz=1T4G ... lorenville Premier résultat avec page sans contenu et deuxième page avec un contenu vide pour Google.

ëtre premier sur quelques requêtes, c'est bien .... avoir des visiteurs ... en nombre, c'est mieux. Goggle commence à lire quelques textes dans les animations flash au passage.
 

Discussions similaires

Haut