Un backlink aide plus ou moins pour le référencement
Aux débuts de Google, en termes de référencement, l'impact d'un lien d'une page A vers une page B dépendait uniquement du PageRank de la page A ainsi que du nombre de liens sortants de la page A. On avait donc compris que pour réussir, il fallait obtenir le plus de liens possible, issus de pages populaires (fort PR) et ne faisant pas "trop" de liens sortants.
Depuis, Google n'a cessé d'améliorer son algorithme en rajoutant des critères, pour affiner cette analyse. En résumé, certains liens aident plus que d'autres, même s'ils ont un PageRank plus faible. Par exemple, il vaut mieux un lien avec un bon texte cliquable qu'un lien du style "Cliquez ici". J'ai rédigé un dossier sur les critères de qualité des backlinks, que je détaille en formation netlinking.
Un nouveau brevet Google sur l'analyse des backlinks
Le 24 août 2010, Google a obtenu un brevet déposé 6 ans plus tôt : Determining quality of linked documents (n°7 783 639). Les auteurs sont trois pointures de chez Google :
- Krishna Bharat : créateur de Google News et pas mal d'autres produits Google
- Amit Singhal : le directeur du département Qualité du moteur de recherche
- Paul Haahr : inventeur de nombreux algorithmes et brevets, par exemple l'analyse des dates de création des documents, la détection des mots vides de sens (stopwords), les systèmes de Query Refinement (affinage/enrichissement des requêtes)
Comme pour tout brevet, on peut se demander s'il est réellement exploité par Google. Comme vous allez le constater en lisant mes explications, je pense que le système décrit ici est déjà en place dans l'algorithme de Google depuis plusieurs années...
Le principe du brevet en quelques mots
Je vais vous résumer l'idée de ces 3 chercheurs : les plus courageux d'entre vous iront lire la source en anglais sur le site de l'USPTO ou son résumé (toujours en anglais).

Dans l'analyse du maillage entre toutes les pages du web, le moteur de recherche tente d'estimer le type de relation qui existe entre les pages ou les sites reliés. En anglais on emploie le terme "affiliated pages" mais j'ai préféré éviter le mot "affiliation" sinon le public français aurait confondu avec le principe de l'affiliation (rétribution d'un affilié pour avoir apporté une visite ou une vente chez l'affilieur). J'utiliserai parfois en remplacement le mot "associé".
Plus les pages sont perçues comme étant proches, moins le lien a d'impact pour le référencement de la page de destination. Par exemple, si 10 pages d'un même site font un lien vers une page A, le poids de ces liens ne sera pas égal à 10 fois celui d'un seul lien (le poids sera inférieur).
Dans quels cas Google estime-t-il que les pages sont proches, c'est-à-dire que leur relation n'est pas si indépendante que ça ? C'est ce que nous allons voir maintenant.
Les critères analysés pour étudier la nature du lien entre pages ou sites
Le maillage (entre pages et sites)
Ne croyez pas que si vous faites un échange de liens triangulaire ou circulaire, Google n'est pas capable de comprendre qu'il s'agit de liens échangés (pour le référencement). Google n'analyse pas seulement les liens au niveau page mais aussi au niveau site Internet.
Si 2 sites sont très interconnectés (en tout cas plus que la moyenne que Google détermine sur des millions de sites), alors les liens qu'ils se font auront sans doute moins de poids.
Quelles conséquences ?
- les échanges massifs de site à site ne sont pas efficaces (sitewide links : blogroll, footer, etc.) : si votre partenaire vous met un lien vers votre site sur chacune de ses 1000 pages, pensez-vous vraiment que ce soit compté comme 1000 "votes" ? Certainement pas, on peut même dire que dans ce cas, à partir d'un certain niveau, ça ne sert plus à grand chose d'obtenir d'autres liens.
- il est très intéressant d'obtenir un lien depuis un site qui ne vous avait encore jamais fait de lien. Ce type de lien sera sans doute pas ou peu considéré par Google comme "affilié" à votre site.
Les données de trafic
Des pages ou des sites visités par les mêmes internautes au cours d'une même session peuvent être considérés comme "associés".
Google peut déterminer ce genre d'informations à partir des données récoltées pendant les requêtes sur son moteur, ou par d'autres moyens (barre d'outils, cookies de publicité DoubleClick, comptes Google, etc.). Si ce sujet vous intéresse, voyez comment Google agrège des données dans Google Ad Planner.
Les données liées à l'hébergement des sites
Des pages ou des sites ayant le même nom de domaine ou sous-domaine peuvent être considérés comme "associés".
Des pages ou des sites hébergés sur des serveurs ayant la même adresse IP peuvent être considérés comme "associés". Cet aspect est assez controversé car Google ne peut pas pénaliser les sites hébergés sur un serveur mutualisé (qui partagent la même IP avec des centaines ou milliers d'autres sites). Google exploite peut-être ce critère dans les cas extrêmes.
On pourrait citer également l'analyse de la classe C de l'adresse IP (c'est-à-dire les 3 premiers nombres de l'adresse IP).
Ce qui suit ne fait pas partie des critères mentionnés par le brevet.
Les données liées à la chronologie des liens
Imaginons un petit futé qui publie sur plusieurs sites plusieurs articles intégrant des liens vers son site. Certes, il a pensé à rédiger des articles inédits pour éviter de tomber dans les problèmes de contenus dupliqués. Certes, ces sites de publication de communiqué de presse ou autres articles ne sont pas reliés entre eux.
Mais pensez-vous vraiment que Google, qui associe une date à tout ce qu'il étudie, ne va pas se rendre compte que dans un laps de temps assez court, plusieurs sites indépendants font le même genre de liens vers un même site ou (pire !) une même page ?
Cela dit, Google doit démêler ce genre de pratiques du buzz ou des simples citations ou retweets...
Autres données
On rentre un peu plus dans les hypothèses :
- deux sites qui utilisent le même compte Google Analytics peuvent être considérés comme "associés"
- deux sites qui utilisent le même compte Google AdSense peuvent être considérés comme "associés"
- deux sites qui sont déclarés dans Google Webmaster Tools avec le même compte Google peuvent être considérés comme "associés"
- deux sites dont les données WHOIS de leur nom de domaine ont en commun la même personne peuvent être considérés comme "associés" (cela dit, Matt Cutts a toujours dit que Google n'utilise pas les données du WHOIS, même si Google est un registrar officiel)
Attention aux mauvaises interprétations de ce brevet
Certains pourraient croire que les liens entre pages ou sites "trop associés" sont pénalisants (pour le site de destination). J'ai plutôt l'impression qu'il y a dans l'algorithme de Google une sorte de plafonnement, de capping : à partir d'un certain point, obtenir des nouveaux liens d'une page ou d'un site donné n'aide plus le référencement.
En d'autres termes, si vous avez plusieurs sites, ou bien la possibilité d'obtenir plein de liens depuis un site partenaire, faites-le si cela présente un intérêt pour votre site (amener des visiteurs, des clients potentiels, etc.). Et ne vous en faites pas si ces liens n'apporteront rien au référencement.
Le cas des liens sitewide
Dans beaucoup de cas où des sites du même propriétaire se font des liens, il s'agit de liens sitewide. Est-ce gênant pour le référencement ? Dans un certain nombre de cas : oui. Lisez donc mes conseils sur les liens sitewide pour un bon référencement Google.
Que pensez-vous de tout ça ?
Cela correspond-il à ce que vous avez observé ? Connaissez-vous d'autres critères qui pourraient être utilisés dans ce cadre ? On discute de ce brevet Google dans le forum WebRankInfo.
Ce qui confirme que pour un réseau de sites pyramidal , les liens ne doivent jamais être faits entre sites du même niveau mais entre sites d'un niveau supérieur vers le niveau inférieur. Avec toutes les précautions : dispatcher les sites sur un maximum de serveurs, utilisation de proxies et vpn
Ok, olivier, mais alors si mon site principal est sur monsite.fr et que j ouvre des pages en anglais sur monsite.uk avec une tradition spécifique uniquement sur la home et que toute les autres pages reste en français rediriger vers monsite.fr avec la balise de langue et que je fais l opération en monsite.de, monsite.ch etc dans le but d avoir monsite.fr place dans les autres pays est ce une bonne pratique ou pas ?
@Zorro : qu'entends-tu exactement par "toutes les autres pages restent en français redirigées vers monsite.fr avec la balise de langue" ?
le terme "rediriger" est précis dans notre jargon : si A est redirigée vers B, alors A n'est pas consultable, son contenu n'est pas visible, puisqu'on est redirigé immédiatement sur B.
Ici je pense que ce n'est pas le cas ? dans ce cas, c'est une stratégie ridicule, car si j'ai bien compris on présente aux internautes anglais uniquement la page d'accueil en anglais, les autres pages n'étant pas traduites ?
bonsoir a tous,
Il y a des sites qui utilisent, exemple monsite.fr et qui duplique les pages interne en monsite.be en monsite.lu et toutes ces pages reviennent en lien vers le monsite.fr site principal.
Pour être claire chaque home est sur son domaine et les autres pages sont en lien vers le site principal, que pensez de cette pratique ?
Depuis quelque temps je vois certain exploiter cette pratique et surtout des vieux sites d entreprise de existante de 30 ans et cela fonctionne très bien pour elles.
Merci pour avis
si c'est pour adapter les contenus (même légèrement) aux pays cibles, ça peut se faire (en ajoutant des annotations de langues pour éviter les problèmes de contenus dupliqués)
ces autres sites n'ont au départ aucune notoriété, je ne vois donc pas pourquoi ça aiderait à l'ensemble.
je ne trouve pas ça très efficace car ça multiplie le travail de netlinking (en se dispersant sur plusieurs sites)
et en plus selon la façon dont c'est fait, ça peut être une technique de spam
Vous avez oublié quelques cas importants :
1) un internaute utilise des comptes Google différents sur le même navigateur => par cookie, Google l'identifie aussitôt et peut donc les associer
2) l'internaute vide les cookies de Google avant chaque ouverture de compte => Le n°IP lui n'a pas changé. Google peut donc associer par n°IP des sites totalement distincts.
Une autre question vient à l’esprit.
On est bien d’accord que si je cible un pays comme la France il faut que mon site doive être hébergé chez un hébergeur français. (selon vos article ;) )
Avoir une adresse IP français chez un hébergeur UK avec l’option de géolocalisation virtuel.
Correspond exactement à une adresse IP français chez un hébergeur français ??
Bonjour,
un article très intéressant merci pour votre temps.
j'ai une petite question concernant l’échange des lien imaginons qu'on a 2 site web cible des pays différent sitefr.com et siteuk.com
les 2 sont hébergés chez ovh (exemple) qui offre la géolocalisation.
alors sitefr.com va être ciblé en France et l'autre en Royaume-Uni.
le lien de sitefr.com vers siteuk.com peuvent être considérés comme "associés". ?
@albert : oui ces 2 sites seraient probablement détectés comme étant associés
Là on parle de google mais tous les autres moteurs de recherche n'ont pas investi autant d'argent de google pour améliorer leur algorithme donc toutes ces subtilités sont moins présentes et les anciennes méthodes fonctionnent toujours
Est-ce que depuis la rédaction de cet article on a des confirmations sur les hypothèses évoquées (impact même GA ou GWT ou WhoIs) ?
Non je ne crois pas. Sauf qu'on a vu également qu'avec Penguin, dans certains cas, Google semble sanctionner les sites qui se font trop de liens ensemble (réseaux de sites).
Dans le e-commerce de nombreux sites ont développé leur propre blog afin de pouvoir maitriser leurs backlinks. La plupart du temps ces blogs sont, soit en sous domaine,soit dans la même class C. Est ce peu pertinent pour google? Alors que certains de ces blogs ont un fort et bon contenu rédactionnel.
Je cite "un peu plus dans les hypothèses :
deux sites dont les données WHOIS de leur nom de domaine ont en commun la même personne peuvent être considérés comme "associés"
Qu'en est-il d'un hébergement mutualisé tel qu'OVH ou les données registrar sont celles d'OVH et pas du client ? GG doit pouvoir aussi faire la part des choses dans ce cas-là.
Bonsoir à tous,
N'oubliez pas qu'il est ici principalement question du brevet "Determining quality of linked documents" n°7 783 639 déposé par Google.
Les autres moteurs, ne disposant pas de la puissance de feu (en terme d'agrégation de sources d'informations) de Google, continuent probablement à "prendre" les liens sans toutes ces analyses.
Le netlinking a encore de beaux jours devant lui ;-)
J'ai toujours essayé de voir chacun de mes sites de façon indépendante, même si leurs thématiques sont très proches. Cela aide pour plusieurs choses : éviter les problèmes de blacklistage de l'ensemble du réseau en cas de sanction, faciliter la revente d'un site en particulier, et trouver des partenaires différents pour chaque site. Il vaut mieux créer des réseaux de sites pyramidaux que circulaires, on le voit de plus en plus que Google n'apprécie guère que les sites à forte notoriété lance des nouveaux services "en se servant" de la notoriété du site principal.
Raisonnement logique de la part de Google.
Un site A qui fait un lien vers un site B, on interprète ça comme une recommandation naturelle.
Un site A qui fait un nombre important de lien vers un site B, on interprète ça devient un sponsor donc non naturel ;)
Si les liens sont tous vers la même page, je dirais que la valeur du lien est préservée. Par contre, si les liens pointent vers des pages différentes, alors je pense que les liens sont dévalués, autant de liens différents n'est pas naturel.
Bon linking :)
@Emile : Focaliser sa politique de liens uniquement sur le positionnement est, à mon sens, une erreur. Il n'y a pas de mauvais liens en soit tant que ceux-ci ne nuisent pas au positionnement. En d'autres termes, un lien qui a peu ou pas d'impact (nofollow) sur le positionnement est quand même bon à prendre, parce qu'il peut potentiellement apporter des visites (ce qui est tout de même la première vocation d'un lien), qui plus est des visites qualifiées. Ensuite, tout est une question de dosage entre liens à fort et faible impact.
Merci, plein d'infos pour titiller sa réflexion... :-)
Effectivement, des liens récurrents depuis un blog ouvertement affilié, cela ne compte probablement pas autant que des liens distincts, mais cela aide quand même bien, j'en ai fait l'expérience concrète récemment. Donc probablement moins d'impact, mais de l'impact facile et efficace puisqu'on le maitrise complétement, y compris pour les ancres des liens.
Et cela permet à GG d'aller explorer quelques unes de ces pages profondes dont on parle beaucoup.. ;-)
PS à Emile: mais si il faut aussi en faire du nofollow !! :-)
Non mais franchement... moi j'y comprends plus rien a ce qu'il faut faire.
Faire des échanges de liens... c'est plus si cool que ça... des liens entre les sites qui appartiennent à la même personne... foutu... les réseaux sociaux pas la peine c'est du nofollow. En gros ce qui reste c'est faire des wordpress à tout bout de champ... pondre des "articles" en veut tu en voila... même si l'écrit c'est pas ton domaine parce que t'es agriculteur... en espérant que d'éventuels bloggeurs de renom veuillent bien mettre un lien vers ton article... enfin franchement c'est assez décourageant.
C'est vrai que ce n'est pas très pratique s'il faut commencer a créer un compte GG avec toute la panoplie pour chaque site, et qu'en est il des autres infos qui puissent être reconnues exemple id de régie de pub dans les bannières etc c'est facilement reconnaissable aussi non ?
Ah oui, intéressant le cas des comptes adsenses associés... bien vu ! Par contre pour GG analytic, on pourrait se dire qu'un presta qui gère plusieurs clients et qui n'a pas envie de gérer plein de comptes différents (un peu comme le mutualisé)... mais encore une fois, Google est maître... Dieu, pardon !
Merci pour cet article qui confirme que l'échange de lien est une mauvaise idée !
Non, cet article ne dit pas ça. Les liens obtenus par échanges sont sans doute moins efficaces, mais ce n'est pas pour ça qu'il faut les exclure à tout prix des stratégies de liens.