Portrait Olivier Duffez

Olivier Duffez

Créateur de WebRankInfo,
consultant en référencement

Bilan du référencement Google en 2007 et conseils pour 2008

Je profite de ce début d’année pour faire le point sur un certain nombre de questions sur le référencement Google. L’objectif n’est pas de rentrer dans les détails à chaque fois, mais de rappeler certains événements-clé de 2007 et de donner des éléments de réponses à certaines questions.

Google a été dur à suivre en 2007, tellement le nombre d’actualités sur ce moteur leader a explosé. Pour tenter d’y voir plus clair, j’ai mis en place sur WebRankInfo une encyclopédie des produits, services et technologies de Google (j’en répertorie 140 à ce jour). En ce qui concerne le référencement, voici donc mon récapitulatif :

Recherche universelle

  • Introduite en mai 2007 sous l’appellation Google Universal Search, la recherche universelle est désormais en place également sur google.fr depuis l’été 2007
  • Il est désormais important de travailler son référencement pour différents types de documents : pages web classiques, images, actualités, contenus géolocalisés, vidéos
  • En plus des fichiers Sitemaps classiques, Google gère désormais les fichiers sitemaps vidéo, ce qui facilite l’indexation des contenus vidéo.

Le Flash

  • Peu de choses ont changé : Google lit toujours le Flash et sait en extraire le texte (pas forcément dans tous les cas), mais cela reste toujours difficile de bien positionner un site en Flash pour la bonne raison qu’il ne contient en général que très peu de pages HTML.
  • Matt Cutts a précisé que Google a remplacé leur technologie propriétaire de crawl des fichiers Flash par le SDK fourni par Adobe.

La syndication de contenu (via les flux RSS/Atom)

  • Syndiquer son contenu est une bonne stratégie pour le référencement, car cela permet d’obtenir des liens
  • Pour éviter les problèmes de contenus dupliqués (par exemple qu’un site qui reprenne votre contenu vous passe devant), il faut demander à ceux qui reprennent votre contenu qu’ils fassent des liens vers vous pour indiquer la source, avec un lien vers la page précise de l’article original (pas de lien vers la page d’accueil)
  • Pour déterminer quel est l’article original, Google se base évidemment sur la chronologie (l’original est souvent crawlé le premier) mais aussi sur le PageRank (l’article original reçoit en général des liens depuis les sites qui le reprennent, ce qui l’aide à avoir un meilleur PageRank).
  • Depuis mi-décembre, Google ne fait plus apparaître les flux RSS/Atom dans ses pages de résultats

Crawl et indexation

  • Google a considérablement amélioré son système de crawl et d’indexation depuis l’été 2007 : il est désormais courant de trouver dans les résultats des pages mises en ligne quelques minutes auparavant
  • Il y a de moins en moins de distinction entre l’index principal de Google et son index supplémentaire. Google a retiré l’indication dans les pages de résultats et il n’est plus possible de savoir si une page fait partie de l’index supplémentaire ou pas.
  • On peut désormais déclarer son fichier sitemap très simplement : une ligne dans le fichier robots.txt

Non-indexation de zones de pages

Les balises meta, les URL

Le PageRank

  • Même s’il est sans doute mis à jour en continu par Google, la seule valeur connue de tout le monde reste celle affichée dans la barre d’outils
  • Cette valeur est très rarement mise à jour, si bien qu’elle n’est absolument pas fiable (les deux dernières mises à jour datent d’avril et octobre 2007)
  • Fin 2007, pour un grand nombre de sites dans le monde, Google a procédé à une diminution arbitraire de la valeur du PageRank affichée dans la barre d’outils. Il s’agissait en général de sites qui avaient vendu ou acheté des liens, ou qui avaient fait des échanges de liens massifs en bas de page. Il semblerait que ces sites n’aient pas été pénalisés en positionnement et donc en trafic (c’est le cas de WebRankInfo dont le trafic a augmenté depuis…).

Netlinking

  • Google a mis fin au phénomène de Google Bombing en ajoutant un nouveau filtre dans son algorithme
  • Google n’accorde aucun avantage particulier à un lien situé sur un site en .edu ou .gov, mais il se trouve qu’en général ces sites possèdent une forte notoriété, ce qui confère un poids important à ces liens (à condition qu’ils n’aient pas l’attribut nofollow)
  • Google ne déprécie pas les liens situés sur les réseaux sociaux (à condition qu’ils n’aient pas l’attribut nofollow, ce qui est finalement assez courant)
  • Matt Cutts reconnaît qu’il ne peut pas garantir à 100% qu’il est impossible de nuire au référencement d’un site concurrent, mais il estime qu’une technique visant à acheter des liens vers un site concurrent (pour le dénoncer ensuite pour achat de lien) est contre-productive car elle aide le concurrent plus qu’autre chose…
  • Un lien avec l’attribut nofollow n’est pas du tout pris en compte par Google : Googlebot ne va pas utiliser ce lien pour crawler la page liée, et ce lien ne va rien transmettre à la page liée (PageRank, TrustRank, etc.).

Egalement…

Ce qui va compter en 2008

  • Il faut absolument avoir mis en place une solide stratégie de netlinking : l’algorithme de Google est de plus en plus sophistiqué sur l’analyse des liens (provenance, nombre, chronologie, format, diversité, etc.).
  • L’utilisation des réseaux sociaux va encore progresser, si bien qu’ils doivent faire partie de la politique de référencement d’un site
  • C’est pour ça qu’avec Ranking Metrics nous avons mis au point un nouveau module dans notre formation qui couvre à la fois les stratégies de netlinking et l’utilisation des réseaux sociaux pour le référencement.
  • Google a montré en 2007 qu’il était de plus en plus fort pour distinguer les contenus dupliqués, et je pense que ce sera encore plus flagrant en 2008

N’hésitez pas à me contacter si j’ai oublié certains points qui vous semblent importants, je mettrai à jour mon article avec plaisir.

Cet article vous a-t-il plu ?

Cliquez pour voter !

15 commentaires

Olivier Duffez

C’est pourtant dit très clairement de manière officielle par un ingénieur de Google : googlewebmastercentral.bl…

Vincent

Bonne analyse, mais personnellement, je reste persuadé que la balise description joue toujours un rôle dans le positionnement…

bee-human

Article intéressant. En 2007, il faut également noter des changements sur google image qui montre une indexation (et désindexation…) plus régulière. Je pense qu’en 2008 google devrait améliorer en priorité ce moteur image.

carole heinz

Petite précision en ce qui concerne le netlinking: il aurait mieux fallu écrire "Google affirme qu’un lien nofollow n’est pas du tout pris en compte". Rien n’est moins sûr; dans la console Webmaster Tools, certains de ces liens apparaissent (notamment ceux de wikipédia mais pas seulement), ce qui veut bien dire qu’il "fait quelque chose" avec ces liens, reste à savoir quoi; d’autres part, certains de mes tests tendent à prouver le contraire, à savoir que certains liens nofollow servent le référencement de la page cible. Certes, Google dit ne pas en tenir compte. Mais en aucun cas, cela ne signifie qu’il n’en tient réellement pas compte.

carole heinz

Autre nouveauté en 2007: la possibilité d’éditer les sitelinks (liens de site) via la console Google Webmaster Tools.

jonathan

Intéréssant tout ça !

netwizz

Au sujet de la syndication de contenu, Google n’indexe plus les flux RSS/Atom depuis la mi-décembre : googlewebmastercentral.bl…

arnoweb

@ Vincent

>>> Bonne analyse, mais personnellement, je reste persuadé que la balise description joue toujours un rôle dans le positionnement…

En fait il faut savoir que la balise meta description de qualité te permet d’enregistrer de meilleurs taux de clics dans les résultat de la recherche. (un bon taux de clic te permettant de grimper dans les résultats).

Cette balise contribue donc indirectement à ton positionnement.

Boulanger

Toujours concernant cette fameuse balise meta description, que veut vraiment dire "ca n’influence pas le positionnement" ?

Admettons que ma page parle de croissants.
Le mot chocolat n’est present nul part dans le corps de cette page, ni dans un seul lien pointant vers elle.
Il me semble évident qu’en cherchant [croissant chocolat] sur google, l’url a plus de chances d’etre dans les resultats en mettant le mot chocolat dans le meta description non ?

Alors que veut dire "ca n’influence pas le positionnement" ?
Est-ce que ca veut dire que mon exemple serait faux, ou bien que si la page contient deja chocolat, le rajouter encore dans le meta description ne la fera pas progresser dans les resultats [croissant chocolat] ?

A mon avis c’est plutot le 2eme cas non ?
Qu’en pensez-vous ?
Quelqu’un a-t-il la réponse ?

Olivier Duffez

Ca n’influence pas le positionnement signifie que l’algorithme de Google qui détermine la liste des pages en résultat à une requête ne tient pas compte des mots utilisés dans cette balise.

Dans l’exemple des croissants, cela ne changera rien si on ajoute le mot chocolat dans la balise meta description (la page n’aura pas plus de chances de sortir).

Pour s’en convaincre, soit on croit l’ingénieur de Google qui l’a dit très clairement, soit on fait des tests…

Boulanger

Ok, merci de ta réponse.

Reste donc à savoir si en cherchant [croissant chocolat], la page a une chance d’etre sélectionnée parmis les resultats (meme loin) malgré le fait qu’elle ne contienne pas du tout le mot chocolat.

Olivier Duffez

Je te laisse faire les tests, mais quand je dis que Google n’en tient pas compte, je le crois vraiment ;-)

Hartas

pour continuer sur le meta description, je pense que celà peut affecter le trustrank. Dans ton exemple de croissant et de chocolat, si tu déclares "chocolat" dans tes meta, mais qu’il n’est pas présent dans ton contenu, les moteurs peuvent l’assimiler à du spam (tentative de "triche"). Par contre si chaque mot clé et chaque description trouve un echo dans ton contenu, cela prouve "ton sérieux". Moralité: soit on ne fait pas de meta, soit on le fait mais sérieusement pour chaque page.

Adilmaster

Les balises restent importantes malgré tout. D’autres moteurs de recherche et annuaires d’indexations en tiennent compte. Et avoir des liens externes qui pointe vers votre site ne fait qu’augmenter sa position sur Google et réciproquement.

Mais ce n’est pas le seul paramétre, ainsi par exemple la nomination des photos, des images joue aussi son rôle… mais aussi la fréquence des mises à jour du site Internet et surtout du respect des normes standard W3C.

Bon référencement.

Olivier Duffez

« les balises restent importantes malgré tout » : je n’ai pas compris de quelles balises tu parles ?
au sujet du W3C, as-tu un article qui démontre l’impact direct du respect des normes W3C sur le référencement ?

Les commentaires sont fermés