Vous êtes ici : Dossiers référencement > Stratégies de liens

Membre WebRankInfo ?

S'inscrire Aide

Quelle méthode d'analyse des backlinks a changé chez Google en février 2012 ?

Par , Lundi 5 mars 2012

En publiant la liste des 40 modifications apportées à Google Search en février 2012, Amit Singhal a attiré l'attention de bon nombre de référenceurs. En effet, il indique qu'une méthode d'analyse des liens en vigueur depuis plusieurs années est (en passe d'être) supprimée. Cet article liste quelques caractéristiques des liens, à vous de voir si l'une d'entre elles pourrait être celle que Google supprime...

En introduction, je rappelle que l'analyse des liens est un des éléments centraux de l'algorithme de Google. Quand on s'est assuré de ne pas avoir de problème technique sur son site, à contenu de qualité égale c'est certainement la quantité et surtout la qualité des backlinks qui fait la différence dans le référencement naturel. D'où les nombreuses interrogations dans le monde SEO depuis la publication de cet article de Google qui en dit trop peu bien entendu.

Le netlinking, élément clé du SEO

Les principales caractéristiques des liens

Parmi les éléments pris en compte par Google dans le netlinking, on pourrait citer :

  • Le rôle primordial du texte du backlink (anchor text) : ça ferait pas de mal que Google le dévalue un peu, non ?
  • Le contexte du lien : les mots autour du lien sont également pris en compte par Google, même s'ils comptent moins que le texte du lien lui-même
  • L'emplacement du lien dans la page : peut-être que Google a supprimé une ancienne méthode d'identification des zones de pages ?
  • Tout un tas de caractéristiques concernant la page qui fait le lien, ou le site qui fait le lien
  • etc.

Je vous conseille de lire mon dossier qui détaille de nombreux éléments stratégiques du netlinking.

En fait, plus je relis la phrase d'Amit Singhal et plus j'y réfléchis, plus je me dis qu'une partie des référenceurs qui ont publié des articles (depuis celui d'Amit) se sont trompés de cible. Amit n'a pas indiqué qu'une caractéristique des liens n'était plus prise en compte, mais qu'une méthode d'analyse des liens a été supprimée. Cette méthode a peut-être été remplacée par une autre équivalente, plus efficace ou plus simple à calculer. Ou bien elle a été purement et simplement supprimée, par exemple parce que Google estime que d'autres méthodes ajoutées depuis sont suffisantes.

Ca risque donc d'être très difficile de savoir ce qui s'est vraiment passé ! Donnez votre avis dans les commentaires.

Mes hypothèses

Comme je viens de l'écrire, il est quasi impossible de deviner la méthode dont parle Google. Je me risque néanmoins à lister quelques registres dans lesquels je pense que le netlinking est en train de changer. En l'état actuel, il s'agit plus de suppositions que de certitudes !

Netlinking et réseaux sociaux

Petit à petit, Google utilise des données issues des réseaux sociaux. Comme je le dis souvent en formation, on est encore loin d'avoir inversé le rôle des backlinks et celui des partages (J'aime, +1, RT, etc.) mais Google pourrait très bien utiliser ces derniers pour confirmer le poids des backlinks. Par ailleurs, n'oubliez pas que bien souvent, quand vous faites parler de vous sur les réseaux sociaux, vous gagnez aussi de manière indirecte des backlinks.

Netlinking et comportement de l'internaute

De plus en plus, Google exploite des données qu'il récolte depuis des lustres sur les internautes. On l'a bien vu avec Panda, un des critères majeurs est (selon moi) le comportement de l'internaute : si souvent les internautes qui visitent un site via Google reviennent en arrière sur les SERP, alors ce site risque d'être pénalisé.

Si Google arrivait à donner à un lien  d'autant plus de poids (au SEO de la page de destination) que ce lien est cliqué, alors ça améliorerait largement l'algo de Google. J'ai quelques idées sur la question (je pense que c'est partiellement en place) mais Google a certainement encore des progrès à faire.

Netlinking et variété des types de sites faisant des liens

Parmi les façons d'obtenir des liens, certaines sont vraiment plus simples que d'autres, presque trop simples. Je ne dis pas que ça ne prend pas de temps mais que c'est "trop simple". Je ne dis pas non plus que ce n'est pas efficace... pour l'instant.

En fait je me dis que Google devrait mieux se rendre compte quand une large proportion des sites qui font des liens sont des sites similaires dans leur "raison d'exister". Par exemple, quelle est la raison d'exister des sites de "communiqués de presse" (qui en général n'ont pas grand chose à voir avec les communiqués de presse, il s'agit de sites de publication d'articles, bien entendu intégrant des liens) ? Ils offrent des liens en échange de contenu, c'est du donnant-donnant. En voyant les choses sous un autre angle, on pourrait dire que ce sont des sites qui permettent d'avoir artificiellement des liens. D'ailleurs ces liens ne servent à quelque chose que si le site de CP est populaire. Mais qui aurait envie de faire un lien vers un site de CP, hormis ceux qui apprécient le service qu'il propose ?

Je ne suis pas sûr d'être très clair, c'est plus facile quand je l'explique à l'oral avec des exemples et des schémas (une bonne raison de venir à ma formation netlinking...). Je veux expliquer qu'il est assez simple pour Google dans une classification de sites de mettre dans la même case tous les sites de CP (je n'ai rien contre les sites de CP, c'est pareil pour les annuaires ou d'autres types de sites). Dans ces conditions, si un site reçoit une forte proportion de BL en provenance de sites de la même case (de classification), alors la puissance du netlinking de ce site devrait être diminuée (puisqu'il s'agit de sources de liens "faciles").

Pour la suite de mon article, je suis allé voir les idées d'un autre expert.

Les méthodes d'analyse des liens décrites par des brevets Google

Bill Slawski a fait un excellent travail de recherche (comme d'habitude) parmi les méthodes d'analyse des liens connues dans la littérature (brevets ou articles de chercheurs). Voici sa liste avec quelques commentaires :

  • Local Interconnectivity : une phase supplémentaire est appliquée sur les résultats de recherche, en se basant sur l'analyse des liens pour booster les résultats les plus "cités" par les autres, d'une façon qui fait penser à l'algorithme HITS. Cet algorithme a peut-être été supprimé.
  • La recherche de sites similaires (opérateur related:), basée sur le maillage
  • La méthode adaptative de calcul du PageRank est peut-être dépassée ou plus nécessaire.
  • L'utilisation des liens (anchor text) pour déterminer la langue de la page de destination n'est peut-être plus la meilleure méthode
  • Le clustering basé sur l'analyse des liens a peut-être été remplacé par une meilleure analyse des contenus (et des concepts liés)
  • Les méthodes de calcul d'un PageRank personnalisé ont peut-être évolué, grâce à la masse de données disponibles sur les utilisateurs.
  • Google se base depuis toujours sur l'analyse des textes des backlinks (anchor text) pour identifier les mots-clés associés à la page de destination. Peut-être que Google utilise davantage des méthodes basées sur les syntagmes des anchor text ? Pour en savoir plus, lisez mon dossier sur l'analyse des syntagmes par Google.
  • Google a peut-être supprimé certains des éléments parmi les données liées à l'historique d'une page ou d'un site, citées dans son brevet Information retrieval based on historical data
  • Google a peut-être modifié son système qui attribue des pondérations différentes aux liens selon leur emplacement dans la page (cf. brevet Document segmentation based on visual gaps)
  • Google a peut-être changé un des caractéristiques utilisées dans son modèle du reasonable surfer (dans lequel la puissance d'un lien dépend de facteurs liés au comportement de l'internaute). Le brevet associé est Ranking documents based on user behavior and/or feature data.
  • Google peut avoir modifié son système permet d'évaluer si 2 sites sont affiliés (au sens large du terme).
  • Google peut avoir changé son système de "propagation de pertinence" entre plusieurs pages interconnectées par des liens

Ce ne sont que des hypothèses bien entendu...

Votre avis !

Qu'en pensez-vous ?

  • Pensez-vous qu'on puisse vraiment trouver quel changement a été effectué par Google ?
  • Pensez-vous que le changement est déjà effectif ou pas encore ?
  • Pensez-vous que ce changement se traduise par un effet visible, ou bien c'est simplement un changement de méthode pour Google, indétectable de l'extérieur ?
  • A quelles autres caractéristiques des backlinks pensiez-vous ?

A propos de l'auteur : Olivier Duffez Olivier Duffez sur Google+ Olivier Duffez sur Twitter Olivier Duffez sur Facebook Olivier Duffez sur Pinterest Olivier Duffez sur LinkedIn

Consultant en référencement, Olivier Duffez a travaillé pour les plus grands sites (Doctissimo, FNAC, RueDuCommerce...). Il édite le site WebRankInfo qu'il a créé en 2002, devenu la + grande communauté francophone sur le référencement (270.000 membres, 1,4 million de posts). Il a également créé la société Ranking Metrics, leader des formations emarketing en France (SEO, AdWords, Analytics, réseaux sociaux).

Vous avez aimé cet article ? Partagez-le !

Vous aimez WebRankInfo ? Suivez-nous !

Si vous souhaitez publier un extrait de cet article sur votre site, assurez-vous de respecter les conditions générales d'utilisation de WebRankInfo.

Vous devriez lire aussi :

43 commentaires

  1. sunloc a dit le

    Encore une devinette de la part de google : J'ai changé ma méthode d'analyse des liens, mais devinez ce que c'est ...

    Google à surement revu l'analyse des liens, en raison de nombreux abus commis par les SEO dans leurs stratégies de netlinking...

    Merci pour cet article...

  2. PubContact a dit le

    Je pense que même si les réseaux sociaux vont prendre de plus en plus de place, ça ne serait pas très judicieux de baser beaucoup de critères là-dessus, notamment compte tenu de tous les sites de mauvaise qualité qui font simplement un buzz avec peu de valeur ajoutée vs les sites avec un contenu très riche mais dont les lecteurs ne sont pas actifs sur les réseaux sociaux.
    Les annuaires, CP and co devraient logiquement perdre de la valeur (si ça n'est pas déjà fait) pour préférer les liens qui semblent avoir été rajoutés spontanément par l'équipe éditoriale du site. Y'a-t-il d'ailleurs sur WRI ou ailleurs un article sur les articles sponsorisés et leur impact sur le référencement (notamment une éventuelle pénalisation de Google vu qu'on se rapproche (très) dangereusement de l'achat de liens)?

  3. Brandos a dit le

    Encore une fois, pas évident d'y voir très clair après une annonce de Google.
    Personnellement je ne pense pas qu'une méthode d'analyse de liens qui servait d'indicateur ait été supprimée sans être remplacée ou complètée par une autre.

  4. Neiloes CP sur internet a dit le

    Sachant que les liens ont une grande importance dans l'algorithme, je pense que le changement opéré par l'équipe Google reste infime. Un important changement de la prise en compte des liens aurait eu impact certain dans les serps.

  5. tonguide a dit le

    Pour moi, ça doit probablement être un élément dont l'importance a été réduit petit à petit et qui est arrivé à un niveau d'importance pour le classement tellement négligeable qu'ils ont décidés de simplement le supprimer (d'où le peu d'impact à priori).

    Du coup, seul ceux qui utilisait massivement cette méthode serait impacté. Pour faire une analyse, il faudrait une 10aine de site qui ont été fortement déclassé. Et c'est là qu'il est possible de savoir ... car rien ne garantie que cette mesure a été prise en Février, et étant donnée les changements régulier, il est difficile de savoir si c'est panda ou une autre mise à jour ou celle-là.

    Reste à faire des tests SEO pour tomber dessus par hasard.

    (PS : sur les commentaires, je ne vois pas comment recevoir les commentaires par email sans écrire)

  6. Pascal a dit le

    Très bonne synthèse Olivier.

    Google a peut-être aussi dévalué les liens provenant de CP, dans le cas où ceux ci deviendraient trop nombreux et où la sémantique serait trop similaire. Certains plan de référencement passe exclusivement que par du CP, avec pour chacune des publications 50 spins de texte de très mauvaise qualité.

    Un des mes anciens clients vient d'en faire les frais, ce n'est pas faute de l'avoir prévenu de ne pas y voir une stratégie pérenne. C'est un linking non naturel et préjudiciable en trop grande quantité.

  7. Chasseur d’appartement a dit le

    J'ai toutefois l'impression que le poids de l'URL n'a jamais été aussi fortement prise en compte comme effet de levier sur le positionnement.
    On serait naturellement tenté de pouvoir dire "à contenu de qualité égale ET POIDS DE l'URL EGAL, c'est certainement la quantité et surtout la qualité des backlinks qui fait la différence dans le référencement naturel".
    Qu'en pensez vous ?

  8. Olivier Duffez a dit le

    Merci Pascal pour ce témoignage. Et donc le client en question a eu une sorte de pénalité dans son SEO Google ?

  9. Olivier Duffez a dit le

    Je ne vois pas ce que tu appelles "le poids de l'URL" ?

  10. Chasseur d’appartement a dit le

    L'influence du choix de l'Url comportant des mots clés avec ou sans tirets ni même underscore associé à l'ancienneté donnerait un impact de plus en plus important sur le positionnement.
    J'évoque cela sur une analyse portant sur mon domaine d'activité, je voulais savoir si vous en arriviez à la même conclusion.
    Je ne peux pas citer d'exemple, simplement :
    Sur une expression clé comme "domaine d'iiiiii.yyy, une url syntaxée : domained'iiiiii sera propulsée en pôle sans aucun Bl ni contenu optimisé.

    Bien entendu, la requête en question est bien plus concurrentielle que ne doit l'être l'exemple donné :o

  11. Olivier Duffez a dit le

    je pense qu'il s'agit uniquement de l'impact des liens qui reprennent l'URL telle quelle (l'URL devient l'anchor text), ce n'est donc pas à proprement parler l'URL.

    mais j'aimerais bien que Google diminue l'impact de la présence des mots-clés dans le nom de domaine, je ne trouve pas ça assez évolué comme critère de positionnement.

  12. Pressebio a dit le

    Depuis quelques jours, j'observe de plus en plus de présence de wiki anglais en second résultat, derrière wiki fr... ça devient pénible d'ailleurs de chercher à partir du 3e résultat pour obtenir autre chose que du wiki. C'est franchement visible sur des requêtes non spécialisées linguistiquement (des noms latinisés d'espèces d'organismes par exemple, ou des mots identiques en français et en anglais).

  13. Chasseur d’appartement a dit le

    C'est précisément cet avis que je partage et qu'à défaut de le diminuer, il semblerait qu'il augmente....

  14. Funkynews a dit le

    Sans rentrer trop dans les détails ce qui me fait bien rire c'est les gus qui spamment les mots clés les plus tappés dans leur anchor text.
    Ils n'ont rien compris à la SEO.
    Trafic != trafic qualifié & business

  15. Olivier Duffez a dit le

    Peux-tu préciser Funkynews ?

  16. Nicolas a dit le

    Pour le moment je n'ai rien ressenti en termes de positionnement. Il est vrai que la plupart de mes sites ont plus ou moins la même stratégie de référencement. L'hypothèse de changement d'un paramètre du modèle du reasonable surfer parait probable car c'est la base au niveau de l'algorithme et il se peut qu'un petit changement puisse avoir de grosses conséquences. Les captures dans les résultats Google prouvent que le moteur est capable de déterminer la taille, la couleur... d'un lien et donc de lui attribuer un poids différent.

  17. soliles a dit le

    A bien y regarder, on pourrait déduire qu'effectivement, Google cherche à donner plus de poids à des liens qui se trouvent à la fois dans un contenu similaire à celui contenant le lien mais aussi, aurait une certaine assurance quant à la difficulté du lien obtenu: en quelques sortes, il est préférable de toujours penser les liens comme quelque chose qui serait le plus naturellement du monde un lien posté par des personnes qui sont réellement extérieures au site: la qualité du lien est un facteur qui prime sur la quantité, ce qui apparaît comme logique: un bon lien est placé dans un contexte qui correspond au descriptif donné, ce descriptif est lui-même lié à un autre support traitant du même sujet...

  18. ZeNobral a dit le

    Ce qui me semblerait le plus probable, c'est Google balance le no-follow et se remette à attribuer le même jus.

  19. Mathieu a dit le

    Je te rejoins sur le fait que google devrait prendre en compte le nombre de fois où un lien est cliqué pour dévalué ou non le link juice transmis.
    C'est vrai qu'un lien positionné dans un article d'un blog connu a plus de chance d'être cliqué qu'un lien d'un splog dégueu...Ce serait une rustine pour éviter le Black Hat...je dis bien une rustine car ça ne reglerait pas tous les problèmes.

  20. iso 9001 a dit le

    En gros tu veux dire qu'un site avec peu de liens entrants et bcp de liens sortants verraient le poids de ses liens minorés par rapport à un site qui serait plus avare de ses liens sortants ?

    J'imagine que pour 99% des sites les améliorations possibles sont si flagrantes que l'analyse de ce qui pourrait changer dans un "millième de critère d'algorithme Google" devrait passer en second plan.

    Pour exemple un "professionnel du web" me montre une page pour avis.

    Peu de texte, absence de H1, des images pas optimisées...

    Inutile pour lui d'aller jusqu'au conditionnel googlien (sans jeu de mots).

    Les dossiers débutants de WRI devrait suffire à ce "pro" non? ;)

  21. Chambre Hôtes Bourgogne a dit le

    J'aime bien l'idée de ZeNobral et je sais qu'il n'est pas le seul ici à penser que les liens no-follow sont bien pris en compte dans le positionnement, je partage cet avis. Cela expliquerait le fait qu'il n'y a pas de gros changements dans nos positionnements, du moins pas suffisament pour que ce soit quelque-chose de notable.
    Si GG a réduit petit à petit la décote qu'il attribuait aux liens no-follow, il a peut-être simplement finit par supprimer cette caractéristique qui finalement ne servait pas à grand chose puisque détournée de sa fonction primaire...

  22. Video a dit le

    Je pense que ce soit bien le pouvoir que transmet l'ancre d'un lien qui a été modifié. Je sais pas pourquoi je pense à cela, un pressentiment.

  23. jeanclaude57 a dit le

    Moi j'ai basé mon netlinking que sur les CP avec des articles différents à chaque fois. Ce site est en place depuis Mai 2009 et mes constatations depuis la mise en place de Panda sont que ce site est de plus visible et visité avec les recherches sur GG.

  24. Olivier Duffez a dit le

    Mais Google ne dit pas qu'une des caractéristiques des liens n'est plus prise en compte ! Pourquoi la plupart des gens interprètent-ils l'article de Google dans ce sens ?

    Google a indiqué qu'une méthode d'analyse a été supprimée.

  25. vêtements de travail a dit le

    Pour les liens en nofollow, ils sont pris en compte dans webmaster tools, est ce que cela ne veut pas dire qu'ils sont, quelque part, pris en compte par google pour le référencement ?

  26. Olivier Duffez a dit le

    les liens nofollow sont en effet listés dans GWT mais ça ne veut pas dire qu'ils sont pris en compte

  27. Chasseur d’appartement a dit le

    @ chambre d’hôtes :
    Ce ne sont que des suppositions, pour en conclure, il faudrait suivre l'évolution d'un no follow avant et après.

  28. Chasseur d’appartement a dit le

    @Olivier
    Certains outils, même si ça reste subjectif, accordent du crédit et du poids à certains liens en nofollow, notamment pour des liens de profil, pourtant non ancrés.

  29. Olivier Duffez a dit le

    C'est ce que je dis (GWT n'est qu'un des outils disponibles) mais rien ne prouve qu'un lien nofollow apporte du jus.
    Par contre, depuis longtemps moi j'ai dit que ça doit être louche (pour un gros site) d'avoir un très faible pourcentage de liens nofollow.

  30. tonguide a dit le

    Tu parles de liens entrants ? (histoire qu'il n'y ait pas de mauvaise interprétation :))

  31. développeur web a dit le

    @Olivier Duffez "mais j'aimerais bien que Google diminue l'impact de la présence des mots-clés dans le nom de domaine, je ne trouve pas ça assez évolué comme critère de positionnement."

    Tout à fait d’accord, cela éviterait les "www.chambre-hote-pas-cher-dans-toute-la-france.fr" et autres url à rallonge, il y a beaucoup d'autres critères bien plus pertinent à prendre en compte.

    En ce qui concerne les liens en noffolow, j'aimerais bien que ceux-ci apportent quelque chose à la cible du lien, car malgré qu'ils soient apparemment visités quand même par google, rien ne prouve que la cible du lien profite de quoi que ce soit à part de potentiels visiteurs.

  32. détecteurs de métaux a dit le

    Ce que vous dites irait dans le bon sens, mais malheureusement dans ma thématique c'est le contraire que je constate : les sites made for adsense n'arrêtent pas de progresser. Ils ont tous les mêmes caractéristiques:
    -nom de domaine exact match
    -ancre de lien toujours optimisée pour la requête, mais provenant uniquement d'annuaires ou de sites à la thématique complètement différente, donc liens à priori de très faible qualité.
    Donc je crois que la prime à la qualité des liens (liens suivis par les internautes, sites de même thématique) ce n'est pas pour tout de suite...

  33. Sites web marseille a dit le

    Je pense que nous vendons aux clients du temps. Par conséquent, quelle que soit la difficulté d'acquisition d'un lien, si une catégorie de lien acquis n'est plus pertinente, nous nous tournerons vers la nouvelle niche porteuse. Jeu chat et souris infini.

    Quelque part le SEO , même pure White, "trompe" Google puisque on entend faire passer nos clients devant d'autres sites, sur le seul critère qu'on est payé pour le faire.

    Si Google en avait le pouvoir, ne transformerait-il pas toutes les agences SEO en agences vendeuses d'Adwords? Du coup je me demande quel poids donné à leurs indications.

  34. Olivier Duffez a dit le

    @tonguide : je ne sais pas si tu t'adresses à moi mais ma remarque concerne les liens en général : backlink ou pas selon le point de vue.

  35. ref 1900 a dit le

    C'est toujours pour moi un grand plaisir de lire les commentaires de referenceurs aguerris, de les entendre dire que telle ou telle méthode relève du Black Hat, et de chercher dans le même temps a savoir quel est la partie de l'algo de Google qui a été modifiée afin de mieux la contourner.
    Le terme "referencement est a lui seul la definition du Black Hat)
    C'est dans ce sens, que, Si un mode de calcul devait être supprimé, je pencherais pour l’échange tacite de liens entre deux sites, genre échange avec un annuaire qui n'a rien d’honnête en soi et qui répond plus de l'entente illicite que de la recommandation d'un contenu de qualité(Ton site est de la m..., mais tu met mon lien, je met le tient)

    petit commentaire sur le nom de domaine:
    Je préfère de loin un nom de domaine qui contienne un ou deux mots clef, mais dont la pertinence permette de le trouver qu'un nom de domaine qui ne veut rien dire pour l'internaute.Ce qui me laisse penser que Google, non seulement ne devrait pas le pénaliser, mais au contraire lui donner plus de poids.

  36. Olivier Duffez a dit le

    Mais "l'échange tacite de liens" n'est pas une méthode d'analyse des liens ! C'est une méthode d'obtention de liens, ce n'est pas pareil.

  37. cdillat a dit le

    Bon je vais passer pour un troll, mais cette technique supprimée, ça serait pas la prise en compte du nofollow ?

    :D

  38. Chasseur d’appartement a dit le

    @ ref 1900
    Pas d'accord sur le dernier argument, cela encourage (et encouragerait encore plus) l'achat ou le troc de NDD sous pretexte qu'ils contiennent des mots-clés et renforcerait les anomalies que l'on rencontre sur des annuaires ou autres, obsolètes voire complètement abandonnées, mais qui faussent encore la pertinence des résultats.

  39. Jeux a dit le

    Je pense pas que ce changement est un changement important... les backlinks sont une methode assez importante dans le referencement... ils ont peut etre diminuer l'importance des liens sur les commentaires blogs je pense, pour eviter le spam... autre chose j'en doute fort !

  40. ventre plat a dit le

    Moi! je me pencherai sur le facteur comportement de l'internaute sur les siteweb ... GG , jusque là ne prenait pas compte du taux de rebond par exemple ..

    La qualité et la pertinence d'une page web par rapport à un mot donné peut - étre défini par la durée des visites des users ..

    En ce qui concerne les liens en nofollow , je crois que pour apporter du jus extrat , ils donnent une crédibilité aux sites ayant un grand nombres de backlinks ... je crois qu'il est util d'avoir quelques liens en nofollow ..

  41. Yol a dit le

    Merci pour cet article. L'utilisation des données collectées par Google va certainement faire évoluer les méthodes d'analyses de Backlinks. Je suis personnellement impressionné par l'onglet "temps réel" actuellement en Beta sur Analytics. Google sait beaucoup de chose sur l'internaute qui visite une page. Il me semble très tentant d'exploiter cette info pour apprécier la pertinence d'un backlink.

  42. Nicolas Rolin a dit le

    Perso, je mettrais du poids sur deux facteurs (rarement cités dans ce genre d'analyse):

    - poids accru du trust rank. Avec son armée d'inspecteurs qualité, G joue un role de rédacteur en chef capable de censurer les sites qui ne lui plaisent pas. Un lien sur une page obscure de l'annuaire yahoo a plus de poids que des dizaines de milliers de profiles.

    - prise en compte du trafic apporté par chaque lien. Un bon vieil adage SEO dit qu'on bon lien est un lien qui apporte du trafic. Avec son approche big-brother généralisée, G a probablement les moyens de filtrer.

    Je ne crois pas que le signal social media devienne un critere majeur (même s'il a du poids): c'est trop facile a spammer, et pour 90% des domaines, il n'y a pas de social media (avez-vous entendu parler de social media pour les chromatographes ou le travail du cuir ?)

  43. Olivier Duffez a dit le

    @Nicolas : attention, le terme "trust rank" n'est peut-être pas le meilleur, mais bon on voit de quoi tu parles. Cela dit je ne suis pas si sûr que ça que l'évaluation de la notoriété d'un site soit faite par des humains. Les quality raters travaillent surtout à peaufiner l'algo (et à pénaliser quelques sites au passage sans doute)

    pour l'histoire des liens cliqués, c'est en effet un aspect intéressant mais ça ne peut pas être la "méthode" dont parles Google ici.

Postez un commentaire !

Les champs marqués du signe * sont obligatoires. L'adresse email ne sera pas affichée.

En postant un commentaire, vous acceptez les CGU du site WebRankInfo.

Cherchez dans tous les dossiers

Cherchez par mots-clés dans ~2000 articles :

Formation référencement et webmarketing

Venez chez Ranking Metrics vous former au référencement, à Google Analytics et aux réseaux sociaux ! Plus de 4000 entreprises sont déjà venues (financement possible par OPCA, DIF...).

Préparés et animés par Olivier Duffez (WebRankInfo) et Fabien Faceries (AgentWebRanking), 2 professionnels reconnus dans le domaine, nos modules sur le référencement naturel sont très complets tout en laissant une grande place à l'interactivité pour répondre à toutes les questions des participants.

Pour connaître le plan détaillé de chaque module, le prix, les dates et les lieux, consultez le site de Ranking Metrics (organisme de formation).

Hébergement web

Hébergement web mutualisé et dédié

Pour un bon référencement, il faut un bon hébergeur. Testez Sivit by Nerim, l'hébergeur choisi par Olivier Duffez pour son site WebRankInfo.

A partir de 3€ HT/mois.