Portrait Olivier Duffez

Olivier Duffez

Créateur de WebRankInfo,
consultant en référencement

Quelques précisions fournies par Google sur son changement d’algorithme Panda (fermes de contenus)

Pendant les conférences SMX West du 8 au 10 mars à San Jose (Californie), des représentants de Google ont livré quelques informations supplémentaires sur la récente mise à jour contre les sites de faible qualité (fermes de contenus), dont le nom de code interne est Panda.

Les informations fournies ici sont essentiellement issues de ce résumé effectué par Vanessa Fox, qui reprend des réponses fournies par Matt Cutts et Maile Ohye.

Matt Cutts a indiqué que les feedbacks des utilisateurs étaient largement positifs (une déclaration inverse nous aurait étonnés…) et qu’il n’existe aucune exception manuelle pour cet algo (contrairement à d’autres algos de Google qui utilisent des listes blanches).

La pénalité est globale à tout le site

Il a également confirmé que les pénalités étaient globales à tout un site. Autrement dit, il suffit que ce nouvel algo identifie « un certain nombre » de pages de trop faible qualité pour que l’ensemble du site en pâtisse ! Apparemment en général, il est possible de s’en sortir en supprimant ces pages (reste à savoir les identifier…) ou en améliorant leur qualité.

2 exemples :

  • un site annuaire d’entreprises qui n’aurait que des informations très générales sur chaque entreprise, déjà publiées à plein d’autres endroits sur le web. Tant qu’il n’a pas réussi à obtenir des avis utilisateurs pour enrichir ses pages, Google peut estimer qu’elles sont de trop faible qualité…
  • un site de questions-réponses : tant qu’il n’y a pas de réponses à chaque question, Google peut estimer qu’elles sont de trop faible qualité…

Maile Ohye et Matt Cutts vont jusqu’à conseiller d’interdire l’indexation de ce genre de pages tant qu’elles n’ont pas assez de contenu ! Par exemple en utilisant la balise meta robots noindex (Maile Ohye le recommande plutôt que le blocage du crawl par le fichier robots.txt, afin que les crawlers continuent de venir crawler la page).

Pour ma part, je trouve ça assez hallucinant… Par exemple quand un membre de WebRankInfo crée une nouvelle discussion dans le forum, il faudrait que j’interdise aux robots de l’indexer, sous prétexte qu’elle n’a pas encore eu suffisamment de contenu de qualité ?

L’overdose de publicité peut-elle nuire gravement au référencement ?

Matt a confirmé que, en soi, avoir des publicités sur son site ne diminue pas sa qualité [perçue par Google ?]. Mais qu’il est possible d’en faire trop ! Par exemple, créer des pages qui dans la partie supérieure (au-dessus de la ligne de flottaison « above the fold ») n’ont que des publicités. Ou alors des pages saturées de publicités, à tel point que l’internaute ne sait même plus trouver le contenu. D’ailleurs je sens que j’ai des améliorations à faire sur mon site à ce sujet ;-)

Conclusion : on va peut-être enfin arrêter de parler d’indice de densité de mots-clés et se mettre à parler d’indice de densité de publicités :-) A votre avis, si Google se base vraiment là-dessus, comment peut-il le mesurer ? Il calcule un ratio entre les surfaces (publicité / contenu) ?

Google réduit la fréquence de crawl des sites de faible qualité

Comme pour d’autres pénalités (ou « couches » de l’algorithme), si Google estime qu’un site est de faible qualité et le pénalise, alors non seulement le site aura moins de visibilité dans les pages de résultats, mais Google va également limiter le crawl. Ca peut donc valoir le coup de vérifier sur votre site à quelle fréquence Google crawle vos pages, éventuellement rubrique par rubrique. Pour cela, pour rentrer dans les détails, mieux vaut analyser les logs.

Déploiement de l’algorithme Panda à l’international

Matt Cutts a confirmé qu’à l’heure actuelle, le nouvel algo n’est en place qu’aux Etats-Unis (sur google.com). Les équipes de Google sont en train de finaliser leurs tests pour le déployer sur le reste du monde. Il a précisé que ce sera fait d’ici quelques semaines… Etes-vous prêts ? Il a indiqué que les types de contenus de faible qualité visés par cet algo sont plus fréquents sur les sites US qu’ailleurs, et donc que les impacts devraient être plus faibles qu’aux Etats Unis.

Cet article vous a-t-il plu ?

Cliquez pour voter !

Laisser un commentaire

Remarques :

  • Si vous souhaitez poser une question ou détailler un problème technique, il ne faut pas utiliser le formulaire ci-dessous qui est réservé aux avis. Posez votre question directement dans le forum Gmail de WebRankInfo. L'inscription est gratuite et immédiate.

  • En postant un avis, vous acceptez les CGU du site WebRankInfo. Si votre avis ne respecte pas ces règles, il pourra être refusé. Si vous indiquez votre adresse email, vous serez informé dès que votre avis aura été validé (ou refusé...) ; votre adresse ne sera pas utilisée pour vous envoyer des mailings et ne sera pas revendue ou cédée à des tiers.

22 commentaires

top liens

je ne penses pas que WRI rentre dans la catégorie des sites avec un ratio « quantité de texte original / nombre de pages » faible. Le risque de problème est donc certainement très faible. Par contre je ne trouve pas illogique qu’un post sans réponse n’apparaisse pas dans les SERP.

Ça doit fonctionner un peu comme le filtre pour duplicate : les pages sont supprimées de l’index si jugées « sans intérêt » et au delà d’une certaine proportion => tous le site à la benne.

Répondre
ebooks

Merci pour toutes ces précisions. Je trouve cela assez effrayant je pensais qu’ils mettraient un temps monstre à déployer à l’international. Surtout qu’en France Google représente 90% du trafic moteur. Si par malheur on est pas conforme…il ne reste plus qu’à fermer boutique ;-). Un premier indice est de suivre le trafic des sites semblables aux US.

Répondre
Sylvain

Cette mise à jour risque de faire très mal pour certains sites. Si je suis tout à fait d’accord avec l’objectif, j’ai du mal à concevoir qu’un algo de ce type ne fera par d’erreur. La seule solution serait de faire faire des vérifications manuelles à la Quality Team, mais je n’y crois pas trop non plus.

Répondre
tonguide

Cette phrase est assez inquiétante ou mal formulé ?

quote : « Autrement dit, il suffit que ce nouvel algo identifie « un certain nombre » de pages de trop faible qualité pour que l’ensemble du site en pâtisse ! »

« un certain nombre de pages » ou « une certaine proportion de pages » ?

Si ce n’est qu’un nombre, tous les sites, WRI compris, sont potentiellement sous le coup de cette MAJ, forcement une partie des sujets sans réponse, si par contre on parle de proportion suffisamment représentative pour décider (de mettre à la rue des gens) de déclasser le site, c’est moins grave.

Répondre
Olivier Duffez

@tonguide: Google a déclaré :

it’s important for webmasters to know that low quality content on part of a site can impact a site’s ranking as a whole

on ne sait donc pas s’il s’agit d’une certaine quantité ou d’une proportion…

Répondre
Nicolas Chevallier

Ca va faire mal je sens, car on ne sait pas trop qui va être impacté et qui ne le sera pas… Pourtant comme aux US les conséquences peuvent être graves pour des boites dont le trafic provient en majorité de Google. On dit qu’il faut diversifier les sources de trafic, mais il faut bien admettre que Google est le vecteur numéro 1 de part son utilisation quasi systématique par les internautes…

Répondre
Webmaster lyon

En parlant de densité, je me demande si au final google n’attend pas une densité de texte non dupliqué pour chacune des pages.
Grosso modo, une fois évacué la structure classique du site (header, menus, footer), le contenu pur de la page devra certainement atteindre soit un pourcentage de l’ensemble de la page soit un nombre de mots minimum.

Répondre
a propos des sous-domaine

Et quid des sous-domaine
Si j’ai un site « www.sitepropre.com » avec un contenu de bonne qualité (disons une centaine de pages) et un sous-domaine fiches.sitepropre.com qui lui contient quelques dizaines de milliers de page de mauvaises qualité.
Il semble clair que le sous-domaine sera pris par l’algo et perdra son référencement, mais cela touche t-il également les autres sous-domaine du site ?

« www.sitepropre.com » pâtira t-il donc d’une mauvaise qualité de l’un de ses sites satellites ?

Répondre
Nic'O

Dans la boite où je bosse nos sites sont en 5 langues dont l’anglais, et le résultat a été immédiat le 24 fev dernier, le trafic provenant de Google.com localisé US a chuté violemment ! et coté position nos TOPS 10 ont chutés entre le seconde page et > 100 (la page reste indexée).

Répondre
Annuaire maison

Je pense que cela va n’impacter que les sites à fortes proportions de Duplicate.

Répondre
e-komerco

quote : « Autrement dit, il suffit que ce nouvel algo identifie « un certain nombre » de pages de trop faible qualité pour que l’ensemble du site en pâtisse ! »

C’est inquiétant. D’autant qu’en admettant que les choses se passent réellement ainsi (et je rejoins Sylvain sur le risque d’erreurs possibles), s’il s’agit d’une « pénalité » tout est imaginable en terme de durée ou de levée….

Répondre
Photographe mariage

Clairement, à l’écoute de plusieurs témoignages relatifs à google.com, la nouvelle algo risque de bouleverser les positions actuelles … Wait & see !

Répondre
ProVoyance

Je suis vraiment très curieux de voir ce que ca va donner, et il ne m’étonnerait que suite à son déploiement, on retrouve encore de belles fermes de contenus protégées par google dans les résultats les mieux placés. Wait and see, mais bon il ne faut pas en attendre grand chose du point de vue qualité.

Répondre
Julien photographe

Quid des sites de photos/photographes ou les pages sont souvent considéré comme vide d’un point de vue référencement (une page= Une photo + un commentaire tout au plus) ?
Ces sites pourraient ainsi être considérés comme étant de faible qualité ?

Répondre
TV 3D

Bonjour et merci pour ces détails concernant le nouvel algo de Google. Pour ma part je pense que le KungFu Panda de google m’a coller quelques baffes, j’ai eu une baisse énorme du nombres de visites et une belle chute dans les résultats des pages de recherches sur mon site. A suivre dans les prochains jours, mais je pense vraiment qu’il y a des thématiques sur lesquelles le Kung Fu panda est déjà passé :s

Répondre
colonies

Je m’interroge de l’impact sur le site marchand… notamment ceux qui diffusent une description détaillée de leurs produits. Ces produits étant identiques entre tous les sites marchands, leur description technique est souvent pour le moins proche. Ces sites se pourraient donc se retrouver pénalisés dans leur référencement naturel ?

Répondre
ronaute

Bonjour, Comme Julien photographe, Je m’interroge sur le devenir des sites dont une large partie du contenu est fait de photos. Quid de ces pages ?

Répondre
Pour le web

Pour ma part je trouve ca plutôt bien que Google fasse évoluer ses algo. Et il ne faut pas trop nous plaindre, puisque les US passent systématiquement avant nous, ce qui nous laisse un peu de temps pour nous adapter.

@site de photos : Pour ce qui est des sites de photos (ou vidéo, produits, etc), ils sont tous à peu près similaires (bcp d’image et peu de texte), donc tous devraient être impacté de la même façon.
Et ceux qui vont décider de mettre bcp plus de texte passeront simplement dans une catégorie de site différente, avec probablement un public différent.
Il ne faut pas oublier que les critères de pertinence sont aussi calculé en fonction de paramètres comme le taux de rebond par exemple. Du coup quelqu’un qui cherche des photos (sans texte) favorisera les sites avec peu de texte et inversement.

Pour les sites marchand c’est typique. Ce que veulent la plupart des gens c’est des images de produits, des garanties solide, expliquée rapidement et surtout des produits de qualité, pas une encyclopédie de produits avec 3 pages pour chaque description. Alors comment se distinguer des autres ? En ayant des images plus attractives, des textes structurés différemment (pas forcément plus long), etc. Il y a largement de quoi faire, ne serais-ce qu’avec les CSS ;)

Répondre
Thalasso

Bon, et bien on l’attend toujours en France, ce changement d’algo; que pour le moment rien du tout.

Je n’ai pas encore fait de check-up des trafic ranks des sites présument touchés, c’est bien trop tôt.

Mais je tenais à vous faire remarquer que les fameux sites soit-disant « shootés » au mois de janvier-février , en l’occurence JCpenney et overstock, n’ont ABSOLUMENT pas bougés en terme de trafic…

j’ai l’impression, qu’il y a pas mal de désinformation, dans ces modifs d’algo Google…

Répondre
Activis

Cette mise à jour est très extrême sur certains points. Pour les pages de qualité par exemple, dès qu’il s’agit de contenu participatif, on ne dispose que de peu de contrôle sur ce que vont dire les internautes et désindexer les pages sans réponses de manière automatisée, c’est passer à côté d’un contenu pouvant être de qualité, par exemple un article très précis publié par un internaute qui n’aura simplement pas de réponse mais qui mérite d’être indexé.

Répondre
Nickal

Bonjour,

Je m’interroge sur le référencement des sites full-flash qui utilisent des techniques white hat pour permettre à Google de remonter les informations pertinentes et correspondant aux contenus.

Merci d’avance pour vos réponses…

Répondre
Peters

« il faudrait que j’interdise aux robots de l’indexer, sous prétexte qu’elle n’a pas encore eu suffisamment de contenu de qualité ? »

Ca me parait logique. Sur mon site lorsqu’une catégorie ne contient aucune annonce j’insère une balise « X-Robot no index » car je n’ai pas envie de donner une mauvaise image de mon site, ni de donner l’impression que je veux envoyer 36.000 pages factices a google.

Exemple:
-http://www.location-de-vacances.be/recherche.cfm?search=1&pays=22&r1=237

donnera:

HTTP/1.1 200 OK
Connection: close
Date: Sun, 24 Apr 2011 15:35:49 GMT
Server: Microsoft-IIS/6.0
ETag:
X-Powered-By: ASP.NET
Set-Cookie: CFID=68150650;expires=Tue, 16-Apr-2041 15:35:49 GMT;path=/
Set-Cookie: CFTOKEN=99514546;expires=Tue, 16-Apr-2041 15:35:49 GMT;path=/
Content-Language: fr-FR
Content-Type: text/html; charset=UTF-8
X-Robots-Tag: noindex
Répondre