Vous êtes ici : Dossiers référencement > Techniques de référencement

Membre WebRankInfo ?

S'inscrire Aide

Quelques précisions fournies par Google sur son changement d'algorithme Panda (fermes de contenus)

Par , Mercredi 16 mars 2011

Pendant les conférences SMX West du 8 au 10 mars à San Jose (Californie), des représentants de Google ont livré quelques informations supplémentaires sur la récente mise à jour contre les sites de faible qualité (fermes de contenus), dont le nom de code interne est Panda.

Les informations fournies ici sont essentiellement issues de ce résumé effectué par Vanessa Fox, qui reprend des réponses fournies par Matt Cutts et Maile Ohye.

Formation pour se préparer à Google Panda

Ranking Metrics vous propose une formation Panda (algorithme Google)

Matt Cutts a indiqué que les feedbacks des utilisateurs étaient largement positifs (une déclaration inverse nous aurait étonnés...) et qu'il n'existe aucune exception manuelle pour cet algo (contrairement à d'autres algos de Google qui utilisent des listes blanches).

La pénalité est globale à tout le site

Il a également confirmé que les pénalités étaient globales à tout un site. Autrement dit, il suffit que ce nouvel algo identifie "un certain nombre" de pages de trop faible qualité pour que l'ensemble du site en pâtisse ! Apparemment en général, il est possible de s'en sortir en supprimant ces pages (reste à savoir les identifier...) ou en améliorant leur qualité.

2 exemples :

  • un site annuaire d'entreprises qui n'aurait que des informations très générales sur chaque entreprise, déjà publiées à plein d'autres endroits sur le web. Tant qu'il n'a pas réussi à obtenir des avis utilisateurs pour enrichir ses pages, Google peut estimer qu'elles sont de trop faible qualité...
  • un site de questions-réponses : tant qu'il n'y a pas de réponses à chaque question, Google peut estimer qu'elles sont de trop faible qualité...

Maile Ohye et Matt Cutts vont jusqu'à conseiller d'interdire l'indexation de ce genre de pages tant qu'elles n'ont pas assez de contenu ! Par exemple en utilisant la balise meta robots noindex (Maile Ohye le recommande plutôt que le blocage du crawl par le fichier robots.txt, afin que les crawlers continuent de venir crawler la page).

Pour ma part, je trouve ça assez hallucinant... Par exemple quand un membre de WebRankInfo crée une nouvelle discussion dans le forum, il faudrait que j'interdise aux robots de l'indexer, sous prétexte qu'elle n'a pas encore eu suffisamment de contenu de qualité ?

L'overdose de publicité peut-elle nuire gravement au référencement ?

Matt a confirmé que, en soi, avoir des publicités sur son site ne diminue pas sa qualité [perçue par Google ?]. Mais qu'il est possible d'en faire trop ! Par exemple, créer des pages qui dans la partie supérieure (au-dessus de la ligne de flottaison "above the fold") n'ont que des publicités. Ou alors des pages saturées de publicités, à tel point que l'internaute ne sait même plus trouver le contenu. D'ailleurs je sens que j'ai des améliorations à faire sur mon site à ce sujet ;-)

Conclusion : on va peut-être enfin arrêter de parler d'indice de densité de mots-clés et se mettre à parler d'indice de densité de publicités :-) A votre avis, si Google se base vraiment là-dessus, comment peut-il le mesurer ? Il calcule un ratio entre les surfaces (publicité / contenu) ?

Google réduit la fréquence de crawl des sites de faible qualité

Comme pour d'autres pénalités (ou "couches" de l'algorithme), si Google estime qu'un site est de faible qualité et le pénalise, alors non seulement le site aura moins de visibilité dans les pages de résultats, mais Google va également limiter le crawl. Ca peut donc valoir le coup de vérifier sur votre site à quelle fréquence Google crawle vos pages, éventuellement rubrique par rubrique. Pour cela, pour rentrer dans les détails, mieux vaut analyser les logs.

Déploiement de l'algorithme Panda à l'international

Matt Cutts a confirmé qu'à l'heure actuelle, le nouvel algo n'est en place qu'aux Etats-Unis (sur google.com). Les équipes de Google sont en train de finaliser leurs tests pour le déployer sur le reste du monde. Il a précisé que ce sera fait d'ici quelques semaines... Etes-vous prêts ? Il a indiqué que les types de contenus de faible qualité visés par cet algo sont plus fréquents sur les sites US qu'ailleurs, et donc que les impacts devraient être plus faibles qu'aux Etats Unis.

A propos de l'auteur : Olivier Duffez Olivier Duffez sur Google+ Olivier Duffez sur Twitter Olivier Duffez sur Facebook Olivier Duffez sur Pinterest Olivier Duffez sur LinkedIn

Consultant en référencement, Olivier Duffez a travaillé pour les plus grands sites (Doctissimo, FNAC, RueDuCommerce...). Il édite le site WebRankInfo qu'il a créé en 2002, devenu la + grande communauté francophone sur le référencement (250.000 membres, 1,4 million de posts). Il a également créé la société Ranking Metrics, leader des formations emarketing en France (SEO, AdWords, Analytics, réseaux sociaux).

Vous avez aimé cet article ? Partagez-le !

Vous aimez WebRankInfo ? Suivez-nous !

Si vous souhaitez publier un extrait de cet article sur votre site, assurez-vous de respecter les conditions générales d'utilisation de WebRankInfo.

Vous devriez lire aussi :

22 commentaires

  1. top liens a dit le

    je ne penses pas que WRI rentre dans la catégorie des sites avec un ratio "quantité de texte original / nombre de pages" faible. Le risque de problème est donc certainement très faible. Par contre je ne trouve pas illogique qu'un post sans réponse n'apparaisse pas dans les SERP.

    Ça doit fonctionner un peu comme le filtre pour duplicate : les pages sont supprimées de l'index si jugées "sans intérêt" et au delà d'une certaine proportion => tous le site à la benne.

  2. ebooks a dit le

    Merci pour toutes ces précisions. Je trouve cela assez effrayant je pensais qu'ils mettraient un temps monstre à déployer à l'international. Surtout qu'en France Google représente 90% du trafic moteur. Si par malheur on est pas conforme...il ne reste plus qu'à fermer boutique ;-). Un premier indice est de suivre le trafic des sites semblables aux US.

  3. Sylvain a dit le

    Cette mise à jour risque de faire très mal pour certains sites. Si je suis tout à fait d'accord avec l'objectif, j'ai du mal à concevoir qu'un algo de ce type ne fera par d'erreur. La seule solution serait de faire faire des vérifications manuelles à la Quality Team, mais je n'y crois pas trop non plus.

  4. tonguide a dit le

    Cette phrase est assez inquiétante ou mal formulé ?

    quote : "Autrement dit, il suffit que ce nouvel algo identifie "un certain nombre" de pages de trop faible qualité pour que l'ensemble du site en pâtisse !"

    "un certain nombre de pages" ou "une certaine proportion de pages" ?

    Si ce n'est qu'un nombre, tous les sites, WRI compris, sont potentiellement sous le coup de cette MAJ, forcement une partie des sujets sans réponse, si par contre on parle de proportion suffisamment représentative pour décider (de mettre à la rue des gens) de déclasser le site, c'est moins grave.

  5. Olivier Duffez a dit le

    @tonguide: Google a déclaré :

    it’s important for webmasters to know that low quality content on part of a site can impact a site’s ranking as a whole

    on ne sait donc pas s'il s'agit d'une certaine quantité ou d'une proportion...

  6. Nicolas Chevallier a dit le

    Ca va faire mal je sens, car on ne sait pas trop qui va être impacté et qui ne le sera pas... Pourtant comme aux US les conséquences peuvent être graves pour des boites dont le trafic provient en majorité de Google. On dit qu'il faut diversifier les sources de trafic, mais il faut bien admettre que Google est le vecteur numéro 1 de part son utilisation quasi systématique par les internautes...

  7. Webmaster lyon a dit le

    En parlant de densité, je me demande si au final google n'attend pas une densité de texte non dupliqué pour chacune des pages.
    Grosso modo, une fois évacué la structure classique du site (header, menus, footer), le contenu pur de la page devra certainement atteindre soit un pourcentage de l'ensemble de la page soit un nombre de mots minimum.

  8. a propos des sous-domaine a dit le

    Et quid des sous-domaine
    Si j'ai un site "www.sitepropre.com" avec un contenu de bonne qualité (disons une centaine de pages) et un sous-domaine fiches.sitepropre.com qui lui contient quelques dizaines de milliers de page de mauvaises qualité.
    Il semble clair que le sous-domaine sera pris par l'algo et perdra son référencement, mais cela touche t-il également les autres sous-domaine du site ?

    "www.sitepropre.com" pâtira t-il donc d'une mauvaise qualité de l'un de ses sites satellites ?

  9. Nic’O a dit le

    Dans la boite où je bosse nos sites sont en 5 langues dont l'anglais, et le résultat a été immédiat le 24 fev dernier, le trafic provenant de Google.com localisé US a chuté violemment ! et coté position nos TOPS 10 ont chutés entre le seconde page et > 100 (la page reste indexée).

  10. Annuaire maison a dit le

    Je pense que cela va n'impacter que les sites à fortes proportions de Duplicate.

  11. e-komerco a dit le

    quote : "Autrement dit, il suffit que ce nouvel algo identifie "un certain nombre" de pages de trop faible qualité pour que l'ensemble du site en pâtisse !"

    C'est inquiétant. D'autant qu'en admettant que les choses se passent réellement ainsi (et je rejoins Sylvain sur le risque d'erreurs possibles), s'il s'agit d'une "pénalité" tout est imaginable en terme de durée ou de levée....

  12. Photographe mariage a dit le

    Clairement, à l'écoute de plusieurs témoignages relatifs à google.com, la nouvelle algo risque de bouleverser les positions actuelles ... Wait & see !

  13. ProVoyance a dit le

    Je suis vraiment très curieux de voir ce que ca va donner, et il ne m'étonnerait que suite à son déploiement, on retrouve encore de belles fermes de contenus protégées par google dans les résultats les mieux placés. Wait and see, mais bon il ne faut pas en attendre grand chose du point de vue qualité.

  14. Julien photographe a dit le

    Quid des sites de photos/photographes ou les pages sont souvent considéré comme vide d'un point de vue référencement (une page= Une photo + un commentaire tout au plus) ?
    Ces sites pourraient ainsi être considérés comme étant de faible qualité ?

  15. TV 3D a dit le

    Bonjour et merci pour ces détails concernant le nouvel algo de Google. Pour ma part je pense que le KungFu Panda de google m'a coller quelques baffes, j'ai eu une baisse énorme du nombres de visites et une belle chute dans les résultats des pages de recherches sur mon site. A suivre dans les prochains jours, mais je pense vraiment qu'il y a des thématiques sur lesquelles le Kung Fu panda est déjà passé :s

  16. colonies a dit le

    Je m'interroge de l'impact sur le site marchand... notamment ceux qui diffusent une description détaillée de leurs produits. Ces produits étant identiques entre tous les sites marchands, leur description technique est souvent pour le moins proche. Ces sites se pourraient donc se retrouver pénalisés dans leur référencement naturel ?

  17. ronaute a dit le

    Bonjour, Comme Julien photographe, Je m'interroge sur le devenir des sites dont une large partie du contenu est fait de photos. Quid de ces pages ?

  18. Pour le web a dit le

    Pour ma part je trouve ca plutôt bien que Google fasse évoluer ses algo. Et il ne faut pas trop nous plaindre, puisque les US passent systématiquement avant nous, ce qui nous laisse un peu de temps pour nous adapter.

    @site de photos : Pour ce qui est des sites de photos (ou vidéo, produits, etc), ils sont tous à peu près similaires (bcp d'image et peu de texte), donc tous devraient être impacté de la même façon.
    Et ceux qui vont décider de mettre bcp plus de texte passeront simplement dans une catégorie de site différente, avec probablement un public différent.
    Il ne faut pas oublier que les critères de pertinence sont aussi calculé en fonction de paramètres comme le taux de rebond par exemple. Du coup quelqu'un qui cherche des photos (sans texte) favorisera les sites avec peu de texte et inversement.

    Pour les sites marchand c'est typique. Ce que veulent la plupart des gens c'est des images de produits, des garanties solide, expliquée rapidement et surtout des produits de qualité, pas une encyclopédie de produits avec 3 pages pour chaque description. Alors comment se distinguer des autres ? En ayant des images plus attractives, des textes structurés différemment (pas forcément plus long), etc. Il y a largement de quoi faire, ne serais-ce qu'avec les CSS ;)

  19. Thalasso a dit le

    Bon, et bien on l'attend toujours en France, ce changement d'algo; que pour le moment rien du tout.

    Je n'ai pas encore fait de check-up des trafic ranks des sites présument touchés, c'est bien trop tôt.

    Mais je tenais à vous faire remarquer que les fameux sites soit-disant "shootés" au mois de janvier-février , en l'occurence JCpenney et overstock, n'ont ABSOLUMENT pas bougés en terme de trafic...

    j'ai l'impression, qu'il y a pas mal de désinformation, dans ces modifs d'algo Google...

  20. Activis a dit le

    Cette mise à jour est très extrême sur certains points. Pour les pages de qualité par exemple, dès qu’il s’agit de contenu participatif, on ne dispose que de peu de contrôle sur ce que vont dire les internautes et désindexer les pages sans réponses de manière automatisée, c’est passer à côté d’un contenu pouvant être de qualité, par exemple un article très précis publié par un internaute qui n’aura simplement pas de réponse mais qui mérite d’être indexé.

  21. Nickal a dit le

    Bonjour,

    Je m'interroge sur le référencement des sites full-flash qui utilisent des techniques white hat pour permettre à Google de remonter les informations pertinentes et correspondant aux contenus.

    Merci d'avance pour vos réponses...

  22. Peters a dit le

    "il faudrait que j'interdise aux robots de l'indexer, sous prétexte qu'elle n'a pas encore eu suffisamment de contenu de qualité ?"

    Ca me parait logique. Sur mon site lorsqu'une catégorie ne contient aucune annonce j'insère une balise "X-Robot no index" car je n'ai pas envie de donner une mauvaise image de mon site, ni de donner l'impression que je veux envoyer 36.000 pages factices a google.

    Exemple:
    -http://www.location-de-vacances.be/recherche.cfm?search=1&pays=22&r1=237

    donnera:

    HTTP/1.1 200 OK
    Connection: close
    Date: Sun, 24 Apr 2011 15:35:49 GMT
    Server: Microsoft-IIS/6.0
    ETag:
    X-Powered-By: ASP.NET
    Set-Cookie: CFID=68150650;expires=Tue, 16-Apr-2041 15:35:49 GMT;path=/
    Set-Cookie: CFTOKEN=99514546;expires=Tue, 16-Apr-2041 15:35:49 GMT;path=/
    Content-Language: fr-FR
    Content-Type: text/html; charset=UTF-8
    X-Robots-Tag: noindex

Postez un commentaire !

Les champs marqués du signe * sont obligatoires. L'adresse email ne sera pas affichée.

En postant un commentaire, vous acceptez les CGU du site WebRankInfo.

Cherchez dans tous les dossiers

Cherchez par mots-clés dans ~2000 articles :

Formation référencement et webmarketing

Venez chez Ranking Metrics vous former au référencement, à Google Analytics et aux réseaux sociaux ! Plus de 4000 entreprises sont déjà venues (financement possible par OPCA, DIF...).

Préparés et animés par Olivier Duffez (WebRankInfo) et Fabien Faceries (AgentWebRanking), 2 professionnels reconnus dans le domaine, nos modules sur le référencement naturel sont très complets tout en laissant une grande place à l'interactivité pour répondre à toutes les questions des participants.

Pour connaître le plan détaillé de chaque module, le prix, les dates et les lieux, consultez le site de Ranking Metrics (organisme de formation).

Hébergement web

Hébergement web mutualisé et dédié

Pour un bon référencement, il faut un bon hébergeur. Testez Sivit by Nerim, l'hébergeur choisi par Olivier Duffez pour son site WebRankInfo.

A partir de 3€ HT/mois.