Annonces Google

Vous êtes ici : Dossiers référencement > Techniques de référencement

Panda 1.0, l'algo de Google contre les fermes à contenus ?

Par , le 27 février 2011

Par le biais de Matt Cutts, responsable de l'équipe de lutte contre le spam, Google a annoncé vouloir lutter contre les sites de type ferme à contenu, jugés produire des contenus de trop faible qualité. Le 24/02/2011, Google a annoncé officiellement avoir déployé son nouvel algorithme anti content farms. Mais sur quels critères un algorithme peut-il se baser pour détecter ces usines à contenu ? Voici quelques pistes, histoire de lancer le débat et quelques réflexions.

L'annonce officielle de Google

Amit Singhal

Amit Singhal, un des boss de l'algo chez Google

Amit Singhal et Matt Cutts ont publié un article sur le blog officiel de Google, expliquant qu'ils venaient de mettre en place un changement d'algorithme important, concernant le classement des résultats naturels. Alors que la plupart des modifications d'algorithme passent inaperçues, celle-ci est qualifiée de majeure puisqu'elle devrait concerner autour de 12% des requêtes. Même s'ils ont pris soin de ne pas utiliser l'expression Content Farm, nous savons bien que Google vise particulièrement ce type de sites.

Ils expliquent que cela fait de nombreux mois qu'ils travaillaient sur cet update, une manière de se défendre contre les accusations récentes sur leur mauvaise lutte contre le spam. L'extension Google Chrome "Personal BlockList" sortie la semaine dernière, apparemment largement adoptée et approuvée par les internautes, n'est officiellement pas (encore ?) exploitée. Par contre, ils ont analysé les sites les plus bloqués par les utilisateurs de cette extension et ont comparé avec leur liste des sites les plus pénalisés par leur nouveau filtre : 84% des 50 sites les plus bloqués par les utilisateurs ont également été détectés par l'algo.

Définition de ferme à contenus

Contrairement à ce que certains disent ou écrivent, cela n'a rien à voir avec les agrégateurs de contenus (qui republient des articles ou extraits déjà publiés ailleurs) ou les sites communautaires et/ou à contenu généré par les utilisateurs (UGC). Wikipédia ou les forums ne sont donc pas des fermes à contenu.

Un site de type ferme à contenus fonctionne sur le principe du "contenu à la demande". L'analogie avec la "vidéo à la demande" est voulue, car c'est bien l'internaute qui est à la base de la demande de contenu. Voici donc ma proposition de définition de ferme à contenu :

Une ferme à contenu est un site qui publie un (très) grand nombre d'articles, sur des sujets précis ayant été préalablement identifiés comme des sujets recherchés par les internautes et donc susceptibles de générer du trafic (et donc des revenus), avec la particularité de produire des contenus à très bas coût et donc souvent de faible qualité.

En clair, la ligne éditoriale de ces sites est dictée par la demande (supposée) des consommateurs ! Autant dire qu'on peut fortement s'éloigner du journalisme.

Pour aller au bout des choses et pousser l'optimisation aussi loin que possible, les éditeurs de ces sites doivent bâtir un système constitué de plusieurs "briques" :

  • un algorithme qui détecte les demandes des internautes et produit en sortie une multitude de sujets d'articles à écrire. C'est en quelque sorte le royaume de Google Trends ou Insights for Search !
  • une plateforme permettant de trouver un rédacteur pour chaque article, le plus rapidement et le moins cher possible. Les contraintes imposées sont malheureusement susceptibles de contribuer à la création d'articles de faible qualité...
  • un CMS permettant de publier les articles de manière ultra optimisée pour le référencement, tout en monétisant le site en général par la publicité
  • des outils de web analytics pour mesurer les performances des articles publiés, aider l'algorithme

Comment Google pourrait repérer les fermes de contenu

A moins de se connecter au cerveau d'Amit Singhal ou de Matt Cutts, difficile de savoir sur quels critères précis Google se fonde. J'ai donc essayé de dresser la liste des caractéristiques des fermes de contenus qui produisent des articles de faible qualité et qui sont désormais dans le radar de Google. Mais on sait très bien que les choses ne sont pas si simples, que tous les sites "soit-disant fermes de contenus" ne sont pas forcément des spammeurs, ou qu'il faut filtrer certaines de leurs pages et conserver les autres... Cependant, il est désormais officiel que Google les pénalise.

Voici donc certains éléments sur lesquels Google pourrait se baser pour les détecter... ou pas ! Comme souvent dans le référencement naturel, c'est plutôt la conjonction de plusieurs facteurs qui peut faire déclencher le filtre de Google. J'ai complété l'article de Ted Chef en y ajoutant quelques idées ainsi que mes commentaires.

  • Sur-optimisation des mots-clés (expressions-clés) notamment dans la balise title, le H1, très optimisées pour une expression donnée précise
  • Enorme indice de densité... Alors qu'on sait que ça ne sert à rien, en fait dans les cas extrêmes ça pourrait permettre de détecter les pages de spam ?
  • Aucun lien sortant intégré dans le contenu éditorial (ou alors ils sont tous nofollow)
  • Faible qualité éditoriale (est-ce si facile que ça à détecter ? je n'en suis vraiment pas sûr, même si Google progresse petit à petit sur ce créneau)
  • Des articles trop superficiels, parfois constitués uniquement de simples listes à puces
  • Pas de nom d'auteur ; est-ce vraiment un facteur si grave que ça ? Les pages de Wikipédia ne font pas apparaître clairement d'auteur par exemple.
  • Très nombreux articles sur le même sujet, avec seulement quelques petites différences entre 2 pages
  • Très nombreux liens internes vers d'autres articles, avec plusieurs erreurs de pertinence (liens hors sujet ou ne correspondant pas exactement à la page de destination)
  • Abondance de publicités y compris AdSense :-)
  • Très faible engagement des internautes avec les contenus :
    • rares liens profonds ou bien issus de sites à très faible notoriété,
    • rares partages sur les réseaux sociaux (Twitter, Facebook, etc.) depuis des profils à bonne notoriété,
    • forte proportion d'internautes retournant sur la page de résultats Google très peu de temps après avoir consulté la page (pogo sticking, à ne pas confondre avec la notion de taux de rebond)
    • faible proportion d'internautes mettant cette page en favoris / bookmarks (dans leur navigateur ou dans les SERP de Google)

Que pensez-vous de ces critères ? Merci d'indiquer vos autres idées, il est évident qu'il en manque !

Edit : consultez également l'avis des rédacteurs web sur les fermes à contenus.

Edit : je mets à jour cet article suite aux premières analyses des sites qui ont été pénalisés par cette mise à jour, appelée Google Farmer Update. au début puis Google Panda ensuite..

Résultats de la "Google Farmer Update" (appelée depuis "Panda")

Les premières analyses semblent montrer que :

  • de nombreux sites de type Content Farm se sont effectivement fait pénaliser (fortement), mais pas eHow, un des plus célèbres d'entre eux, géré par Demand Media, le plus gros du secteur.
  • des concurrents à Google Shopping semblent avoir été également victimes de cette mise à jour
  • des géants du web profitent de cette mise à jour Farmer Update, tels que Youtube.com, Facebook.com

Sources : sistrixgrowmap, SE Land, SEOBook.com

Formation referencement Google Panda

Ranking Metrics vous propose une formation Panda (algorithme Google)

A propos de l'auteur : Olivier Duffez Olivier Duffez sur Google+ Olivier Duffez sur Twitter Olivier Duffez sur Facebook Olivier Duffez sur Pinterest Olivier Duffez sur LinkedIn

Consultant en référencement, Olivier Duffez a travaillé pour les plus grands sites (Doctissimo, FNAC, RueDuCommerce...). Il édite le site WebRankInfo qu'il a créé en 2002, devenu la + grande communauté francophone sur le référencement (+290.000 membres, 1,5 million de posts). Il a également créé la société Ranking Metrics, leader des formations emarketing en France (SEO, AdWords, Analytics, réseaux sociaux).

Article (Google Panda 1.0) publié par WebRankInfo dans la rubrique Techniques de référencement. Si vous souhaitez publier un extrait de cet article sur votre site, assurez-vous de respecter les conditions générales d'utilisation de WebRankInfo.

62 commentaires

  • Melekher.com a dit le

    donc utiliser wordpress on pourrais être pénaliser? on utilisant les CMS et les plugin de SEO ?

  • Olivier Duffez a dit le

    Je ne vois pas le rapport avec WordPress ou n'importe quel CMS ?

  • Arkanys a dit le

    Si tu vois juste dans les éléments de détection des fermes de contenus, beaucoup de sites (qui n'en sont pas) risquent de tomber dans les geôles de Google.

  • Olivier Duffez a dit le

    En fait je pense qu'il y a d'autres critères plus avancés ! Je n'ai pas fini d'en faire l'analyse, donc je n'en parle pas ici. D'autres suggestions ?

  • Pay Per Results a dit le

    Bonne initiative que de s'interroger sur les critères qui seront pris en compte.

    Les critères on page, comme la suroptimisation ne sont pas forcément un indicateur de qualité de contenu.

    Je me demande si cette histoire n'engendre pas une confusion entre Spam et qualité de contenu.

    Un spammeur n'implique pas forcément une mauvaise qualité du contenu tandis qu'un site non spammy n'est pas un gage de qualité non plus.

    Les sites visés par Google sont avant tout les sites non pertinents (Spammeurs et non spammy compris).

    J'imagine plus la prise en compte du taux de clique et pourquoi pas d'autres éléments visant l'expérience utilisateurs que des facteurs on page. Ce n'est que mon point de vue ;-)

  • Agence web Annecy a dit le

    Aucun lien avec WordPress en effet !!

    L'équipe anti-spam de Google est tout de même encore loin du compte, et le sera sans doute malheureusement encore longtemps.

    A chaque nouvelle MAJ de l'algorithme, les spammeurs et autres inventent de nouvelles techniques pour s'adapter à ce changement d'algorithme.

    C'est probablement un coup d'épée dans l'eau, une fois de plus !

  • Olivier Duffez a dit le

    Comment peut-on écrire ça sans même avoir jugé ?

  • Alexiane a dit le

    Je sais que c'est mal de citer des sites mais je trouve que le site les-experts.com est une sorte de ferme de contenu. Le contenu n'est pas pertinent, dans leur admin ils cherchent des rédacteurs pour un tarif misérable sur les requêtes les plus concurrentielles. Et ceci avec de l'adsense à gogo. Ce que je comprends pas c'est que c'est wikio qui a lancé ce site quand même... Je comprendrais que mon commentaire soit modéré mais c'est vraiment pour ouvrir le débat.

  • Arakiel a dit le

    Je n'ai pas d'avis sur ce sujet que je ne connais pas du tout. Mais du coup, je trouve ton article très instructif. Il est très intéressant de connaitre le fonctionnement du moteur de recherche le plus utilisé.
    Merci

  • Olivier Duffez a dit le

    D'après Aaron Wall, le site Mahalo fait partie des sites pénalisés par ce nouvel algo : http://www.seobook.com/i-am-long-mahalo

  • icone religieuse a dit le

    Est ce qu'une stratégie ne pourrait pas être de pénaliser les sites qui ont trop de contenu sur trop de sujets différents et privilégier ceux qui ont du contenu sur une thématique précise ? Évidemment, contre-exemple Wikipedia mais ça peut ramener dans les filets des sites comme Wikio ou Yahoo! answers

  • Mutuelle a dit le

    Difficile pour lui de détecter les bons contenus. Avec Facebook & Twitter, il peut facilement si un article est intéressant.

    Je pense qu'il va aussi prendre en compte le temps que passe l'internaute sur le site. Il arrive à voir dans une page qu'elle contient un article de 1000 caractères et que l'internaute ne reste pas plus de 5 secondes.

    Peut être aussi les faibles visiteurs envoyés via les réseaux sociaux...

    Ta liste est déjà bien constitué.

  • Webmaster lyon a dit le

    Dans la liste des éléments, j'ajouterai le fait de créer automatiquement une nouvelle page suite à la requête de l'internaute.
    Exemple :
    Un site possède un moteur de recherche interne. L'internaute cherche "306 peugeot grise à Paris". Le site va alors automatiquement créer une nouvelle page optimisée pour cette requête. Etc, etc...

    Pratique largement utilisée par bon nombre de gros sites.

  • Olivier Duffez a dit le

    @webmaster Lyon : cette pratique est très précisément interdite par les consignes de Google... donc risquée

  • Frederic Montagnon a dit le

    @Alexiane Votre commentaire est un peu gratuit, vous ne trouvez pas? :)

    Qu'est ce qui vous fait dire que "Le contenu n'est pas pertinent"? Ce qui est pertinent pour vous ne l'est pas forcement pour un autre. Je trouve que regarder une émission de télé réalité est une perte de temps, pourtant elles font d'excellents score d'audience. La plupart des discussions SEO que l'on trouve ici sont peu pertinentes pour moi, certaines le sont.

    Une seule chose peut mettre tout le monde d'accord: des KPIs. Un contenu pertinent c'est un tx de rebond faible, du temps passé, des recommandations sur Facebook&co, du trafic spontané, des CTR, etc... Sur ces aspets, faites moi confiance, nous sommes bons. Je ne connais pas l'algorithme de Google, mais il est évident que ce sont ces métriques qui sont utilisées pour repérer les bons contenus.

    Concernant la rémunération des articles, nous payons en fonction de la qualité et de l'ancienneté nos contributeurs. Il est évident qu'une personne fraichement inscrite ne pourra pas toucher les mêmes rémunérations qu'un rédacteur confirmé avec lequel nous travaillons depuis des mois. Rapporté à l'heure, nos rédacteurs touchent en moyenne une rémunération 30% au dessus du SMIC.

  • Olivier Duffez a dit le

    Merci Frederic pour ces précisions.

    Pour le taux de rebond et le temps passé, ce n'est a priori pas mesurable pour les visites à une page, qui sont pourtant très nombreuses.

    Mais je suis d'accord que Google doit certainement beaucoup utiliser des critères liés au comportement des internautes, le fameux PersonRank ou SocialRank dont on parle de plus en plus.

  • 1ternet a dit le

    Voila une annonce qui risque de modifier la donne sur les pages de résultats. Bons nombres de sites sont menacés de disparition...

  • onsecroyaitchic a dit le

    je ne vois pas pourquoi G ferait le ménage , car ces "sites" de contenus leur amène beaucoup de revenu en redistribuant du Adword en Adsense ....

    je viens de recevoir la news letters optimisation

    Sic : "Conseil d'optimisation du mois
    Boostez vos revenus AdSense en ajoutant de nouvelles annonces sur vos pages !

    En créant de nouvelles annonces, vous augmentez vos chances de monétiser le trafic sur votre site. Prenez exemple sur le sitedesmarques.com, créez de nouvelles annonces dès maintenant ! Vous pouvez ajouter jusqu’à 3 annonces, 3 blocs de liens et 2 champs de recherche sur chacune de vos pages."

    Le site des marques n'est il pas un agrégateur de contenus ?

  • Vente privee a dit le

    Google commence à devenir pénible avec ses contraintes. Il semble que ses dirigeants n'aime pas l'idée qu'on puisse se servir de son outil pour faire de l'argent. Les-experts.com ne me dérange pas du tout et je ne vois pas pourquoi ce type de site devrais être pénalisé, ils peuvent apporter des réponses à des questions qui n'ont pas encore été soulevé. La valeur ajouté est effective.

  • Arnaud a dit le

    C'est très intéressant de lancer ce recensement pour tenter d'y voir plus clair.

    Pas spécialement de critère à ajouter mais la conviction à ce stade de la prééminence de certain éléments, en l'occurrence le PersonRank (celui qui a développé l'appellation appréciera à l'occasion la reprise par tes soins Olivier, surtout après s'être fait taclé sur la question récemment).

    La raison est claire, autant des techniques automatisées pourront toujours piéger plus ou moins l'algorithme qui par essence est lui même automatique, autant le feedback utilisateur, sera beaucoup plus difficilement trucable.

    A ce stade on pourra rétorquer qu'il suffira d'automatiser des comptes sur réseaux sociaux pour faire la même chose, sauf que la valeur intrinsèque de ces vecteurs est le produit de multiples facteurs, et liée à la valeur que d'autres utilisateurs leur donne.
    On pourra donc multiplier les BL cheap, mais beaucoup plus difficilemnt valoriser le bot émetteur.

    Ça mériterait d'être développé, mais pas en simple commentaire.

  • rencontre a dit le

    Bonjour, qu'en est il des sites de communiqué de presse avec des catégories ? A terme, Google va t'il les prendre en grippe ou passeront ils à travers ? Des pistes de ce coté la ? Que ca nous ruine pas notre ref ^^

    Etant donné que les sites de communiqué de presse ont quasi tous des liens sortant dans leur contenu ( c'est un peu le but ), ils ne devraient pas être considéré comme "ferme de contenu" en théorie, non ?
    Merci - Régis

  • Lipocavitation a dit le

    Je pense qu'il s'agit plus d'une action de communication de crise qu'une réelle mise à jour de l'algo.

    Google étant massivement critiquée ces derniers temps, il se devait de réagir. Tous les critères servant à définir une ferme de contenu peuvent aussi servir à définir un site jeune et débutant.

    CMS => Facile à installer. Ca ne signifie en rien qu'il s'agit d'une potentielle ferme de contenu.

    Peut de liens profonds => Alors les référenceurs savant générer des liens profonds passeront devant ces sites là ? Quitte à ce que ce soit dans ce cas là non plus une ferme de contenu mais de liens ? Un débutant qui lance son premier blog aura peu de chance de savoir le mettre en valeur et lui offrir de la visibilité. Donc il a également peu de chance d'obtenir du lien profond.

    Bref, la détection automatique de ferme de contenu de mauvaise qualité est bien plus compliquée que ce qu'on le pense d'après moi. Et c'est avant tout le Spam Report des concurrents qui continuera de les faire tomber

  • Olivier Duffez a dit le

    Mais pourquoi parlez-vous du CMS comme étant un critère négatif ? Sans doute que vous interprétez mal ce que j'ai écrit... il va falloir que j'améliore mon texte ;-)

  • iso 9001 a dit le

    Bonsoir,

    Un point que j'ai du mal à saisir mais vous allez certainement m'éclairer.

    Quand Frédéric cite "le taux de rebond" comme un critère très probable pour la détection par Google d'une ferme de contenu, encore faut il qu'il puisse l mesurer.

    Il le fait pour les sites pour lesquels on utilise un service Google (par ex Google Webmaster Tools) mais si un webmaster évite de passer par un service google comment le moteur de recherche peut il évaluer le taux de rebond...?

    Merci pour vos lumières...

  • Olivier Duffez a dit le

    Le taux de rebond n'est pas mesuré par Google Webmaster Tools mais plutôt par Google Analytics.

    D'une manière générale, Google estime le taux de rebond avec des outils comme la barre d'outils Google, ou bien Google Chrome (à condition que l'utilisateur ait configuré ces outils pour autoriser Google à récupérer des infos).

  • Deborah Botton a dit le

    Il me semble que cette liste des critères pour détecter les fermes à contenus soulève des hypothèses très pertinentes... Donc merci déjà pour cet article :)

    Clairement, par exemple, citer le nom de l'auteur est un critère de qualité essentiel pour juger de la validité d'une information.

    Même si les articles de Wikipédia ne sont pas signés, on peut consulter l'historique des éditions et retrouver la liste des contributeurs. Je pense vraiment que ce critère sera de plus en plus important sur le Web, tout comme il l'est en presse écrite, avec le temps.

  • Hegurka a dit le

    Remarque: la semaine dernière l'info à propos des fermes de contenus et de l'action de Google passe. Quelques sites en parlent. Deux ou trois jours plus tard Google "avoue" ne pas trop y parvenir. Plus personne n'en parle. Et cette semaine, revirement brutal de Google qui fait l'annonce de cette mise à jour. Et là c'est le délire, tout le monde en parle et tout le monde a oublié qu'il y a huit jours Google laissait tomber (ou presque).
    C'est quoi, tout ce cinéma ? Ce faux buzz ?
    En revanche, ici, bravo pour l'étude et le niveau de réflexion.

  • Olivier Duffez a dit le

    Je ne vois pas bien à quel moment il a été question de Google qui "laissait tomber" ? Par ailleurs, Google prétend avoir travaillé près d'un an sur cette mise à jour. Danny Sullivan a confirmé avoir eu des contacts avec Google sur ce sujet en janvier 2010.

  • sam a dit le

    Les premiers metrics arrivent : http://www.sistrix.com/blog/985-google-farmer-update-quest-for-quality.html
    Qu'en pensez-vous ?

  • Olivier Duffez a dit le

    Si leur outil de mesure est fiable, ça fait plutôt peur ! Enfin, je ne connais pas vraiment les sites de ce top 25, peut-être qu'ils méritaient une telle chute, mais quand même c'est impressionnant.

  • netking17 a dit le

    J'ai toujours amélioré la performance de sites juste en passant à Worpress.

    A contenu équivalent, le bénéf plateforme est énorme.

    J'espère que ça ne va pas changer...

  • Julien a dit le

    @Olivier : j'aime bien les 4 points de ta définition : ils définissent simplement le métier de SEO white hat (si on enlève le netlinking) sans être totalement complet.

  • LaurentB a dit le

    Peut-être aussi à ajouter le ciblage à outrance autour d'une requête.
    En d'autres termes, une ferme de contenu va cibler tout un panel de requêtes autour d'un sujet en publiant à chaque fois un article différent dans le seul but d'attaquer une variante.
    Exemple frappant sur
    -http://www.ehow.com/apply-card-credit-online/

  • Olivier Duffez a dit le

    Laurent : désolé, ton commentaire était passé dans les indésirables et comme j'en ai trop, je ne les regarde jamais.

    Concernant ta remarque, ça rejoint ce que j'avais écrit dans mon article : "Très nombreux articles sur le même sujet, avec seulement quelques petites différences entre 2 pages"

  • nk a dit le

    > Un site possède un moteur de recherche interne. L'internaute cherche "306 peugeot grise à Paris". Le site va alors automatiquement créer une nouvel

    >> @webmaster Lyon : cette pratique est très précisément interdite par les consignes de Google... donc risquée

    bonjour - ou cette interdiction est elle indiquee ? url please ?

  • Olivier Duffez a dit le

    @nk : c'est sur :

    Utilisez le fichier robots.txt pour empêcher l'exploration des pages de résultats de recherche ou d'autres pages générées automatiquement par les moteurs de recherche et qui n'offrent aucun intérêt particulier pour les internautes

    (lire également l'avis de Matt Cutts sur la question, même s'il est ancien)

  • tostaki1 a dit le

    Suite 101 a typiquement une logique de ferme à contenu.C'est un site qui se vantait de n'avoir que 3% d'internautes passant par sa page d'accueil. (un très bon article sur le sujet: http://blog.slate.fr/labo-journalisme-sciences-po/2010/07/20/suite101-fr-la-logique-du-clic/ )

    Or c'est bien là le problème de ce genre de site: ils n'ont pas le souci du développement de marque, et font preuve d'opportunisme extrême quant au choix du développement de leurs sujets.

    D'ailleurs, quand Olivier parle d'une ligne éditoriale basée sur la demande du consommateur, je pense pour ma part qu'on peut même parler d'absence de ligne éditoriale. Serait-ce d'ailleurs sur l'absence d'un champ sémantique cohérent et dirigé que Google a basé ses filtres ou un simple blacklistage? On peut se poser la question

  • Olivier Duffez a dit le

    tostaki1, comment peux-tu détecter "l'absence de champ sémantique cohérent et dirigé" ? est-ce page par page ou sur un ensemble de pages ?

  • tostaki1 a dit le

    Je pencherais plutôt sur un ensemble de pages. Webrankinfo doit avoir un champ sémantique cohérent sur le référencement sur le domaine http://www.webrankinfo.com

  • Olivier Duffez a dit le

    tostaki1 : ça ne tient pas, il y a plein de sites légitimes qui abordent des nombreux sujets très variés (ex: wikipédia mais plein de boutiques en ligne également)

  • Magento a dit le

    On est pas simplement en train de parler de ces bons vieux MFA (made for adsense), là ?

    Je vois pas bien ce qu'il y a de nouveau, sauf le fait que GG annonce vouloir s'en occuper. Mais bon, j'en ai vu pas mal se faire blacklister ces dernières années, donc GG sévissait déjà.

    Le risque,je pense, d'un algo pour ça, c'est de pénaliser les petits sites amateurs, qui n'ont pas de vraie qualité rédactionnelle (c'est des amateurs !), mais qui constituent quand même la majorités des sites sur la toile, et de favoriser ainsi une sorte de pensée unique.

  • Alexiane a dit le

    @Frederic Montagnon : je trouve que le site les-experts.com assez limite au niveau de la pertinence car outre le fait que les sujets sont particulièrement des sujets SEO, le site est censé donner des conseils à l'achat avec plein d'articles de type "Où acheter bla bla bla" et il n'y a même pas de liens externes vers les sites en question. Si c'est vraiment un site de partage d'infos pourquoi ne pas mettre ce type de liens ? Ex de cet article : pourquoi ne pas mettre un lien vers Conforama ?

  • Kilroy a dit le

    En examinant quelques uns des sites de la liste du top 25 des gadins de Sistrix, on constate que certains sites de publication d'articles sont affectés.
    Il s'agit de sites qui permettent à des auteurs de créer des articles sur des milliers de sujets différents.
    Il serait intéressant de voir si des sites comme about.com (qui a des rédacteurs attitrés) ou squidoo.com (qui joue la carte communautaire) sont également affectés

    http://www.carnets-referencement.com/google-farmer-update-qui-sont-les-perdants.html

  • Pour le web a dit le

    Même si les critères sont à étudier le fait d'entamer une liste est très judicieux. Pour moi cependant certains sont peu être un peu trop large ou difficilement mesurables. Dans tous les cas il faut prendre chaque critère comme un indice, et non comme une preuve en soi.
    Pour ce qui est "des pages qui s'adaptent à la requête des internautes" c'est peut être interdit, mais comment fait Google pour les repérer ? pour l'instant ils continuent d'en exister à foison.

  • JviewImmo a dit le

    Petite question, est-ce que Google s'est attaqué spécifiquement aux fermes de contenus, dont en plus de la piètre qualité éditoriale, on peut effectivement les reconnaître au fait qu'ils ont toujours des sujets trendy avec beaucoup d'addsense, ou la modification de algorithme a eu une ampleur plus conséquente pour des voisins type annuaire de piètre qualité, forum de type Commentçamarche.net et autres?
    J'ai vu que l'impact était, par exemple, assez conséquent sur les DiggLike...

  • dgv a dit le

    @ Olivier, qu'entends-tu par "des concurrents à Google Shopping semblent avoir été également victimes de cette mise à jour" ?
    Les comparateurs de prix sont-ils dans le colimateur ?

  • Olivier Duffez a dit le

    @dgv : c'est indiqué dans les liens que j'ai fournis, qui listent des comparateurs qui semblent avoir été touchés

  • dgv a dit le

    Oui merci, je ne les avais pas vu.
    Ces articles sont très intéressants. Ils concernent les USA. Est-ce que la France commence à être touchée ?

    Suite à la lecture de ces articles où certains accusent GG d'avoir contribué à ces fermes de liens en mettant à disposition GG Adsense et les revenus associés, il me vient une réflexion : GG pourrait sélectionner les sites éditeurs ! Après ça devient compliqué pour gérer les intérêts de tous.

  • Auto Entrepreneur a dit le

    Je me demandais justement quelles techniques ils pouvaient bien employer pour repérer les fermes de contenus. Ce qui est décrit dans l'article présente bien comment Google peu "démasquer" les fermes de contenus; en revanche c'est moins flagrant en ce qui concerne la détection des contenus de "faible" qualité, et ce n'est pas étonnant car je vois pas bien comment il pourraient faire ça. Il faudrait développer des analyses sémantiques extrêmement puissantes que même google ne semple pas encore maîtriser. D'autant qu'il faudrait ensuite appliquer ça pour toutes les langues...

  • odysseus a dit le

    Je trouve que Google prend le problème à l'envers et se laisse pervertir par Adsense. Google modifie son moteur en ajoutant rustine sur rustine et devient de moins en moins universel. A l'inverse au niveau d'Adsense aucune réaction alors qu'il semblerait parfaitement logique de censurer la publicité sur les fermes à contenu. Pas de pub, pas de revenu, et ce serait la fin des fermes à contenu. N'importe quel annonceur classique refuserait de voir ses annonces sur des sites trash ou de piètre qualité. Ma définition de ferme à contenu : énorme salmigondi de textes, de liens, et d'infos sans hiérarchie sans design et sans ligne rédactionnelle.

  • deleter23 a dit le

    En tant qu'internaute j'ai horreur de tomber sur ce genre de sites, c'est irritant ! Ces gros sites d'articles qui monopolisent les serp n'ont aucun intérêt et c'est normal que google s'en occupe.
    Il y aura des dégâts collatéraux comme toujours mais c'est le prix a payer pour avoir des serp bien propres :-)

  • Peters a dit le

    Chers amis,

    Ne vous excitez pas. Tout ceci ne concerne QUE les US. Lisez les blogs officiels de Google. Rien de tout cela n est appliqué en France ! Rien.

    Si vous voulez faire bouger les choses, je vous propose d 'aller demander a Matt Cutts sur son twitter si il compte faire qqchose pour la France.

    Peut etre que si on est 550 a lui demander il va bouger ses fesses.

  • LamaHurlant a dit le

    Petite question :
    Facebook.com semblerait être l'un des gagnants de la mise à jour, trouvez-vous réellement qu'une page Facebook est pertinante ?

  • LaurentB a dit le

    Si j'en crois les propos de Singhal et Cutts dans , il y aurait des critères plus subjectifs comme la confiance.
    Ils ont corrélé l'algo avec des données "humaines" qui répondaient à des questions telles que :
    “Would you be comfortable giving this site your credit card? Would you be comfortable giving medicine prescribed by this site to your kids?”

  • fourniture de bureau a dit le

    Google voulant enrichir son algo d'indices sociaux,on a pas fini d'entendre parler des rachats de ce dernier dans les médias sociaux; et Twitter qui résiste saisira sa chance un de ces jours, je pense.

    Ton article est bien pensé Olivier D. et m'a fait penser a un truc au niveau du linking:
    l'importance du nombre de liens bilatéraux (A pointe vers B et B pointe vers A), pourrait-il être un facteur pénalisant ?

    Wilfried
    ps: Merci pour ce lien Laurent ; très instructif.
    amitiés

  • chargeurdeportable,com a dit le

    Quid des agences de presse en ligne?

  • fiurghevhge a dit le

    Question : un site comme 123people.fr, c'est une ferme à contenu ?

  • Olivier Duffez a dit le

    A ma connaissance, 123people ne crée pas des pages éditoriales et ne peut donc pas être considéré comme une ferme de contenus. Par contre, ce site sera-t-il considéré par le nouvel algo de Google comme étant de trop faible qualité ? Réponse dans quelques semaines quand ce nouvel algorithme Panda sera appliqué sur les autres versions de Google que google.com

  • location saisonniere luxembourg a dit le

    A voir ce que la nouvelle mise à jour va donner en France car ca promet... J'ai du mal à concevoir qu'un site de communiqué de presse par exemple soit considéré comme une ferme de contenu si son contenu est qualitatif, et unique... Même si celui ci n'a pas beaucoup de backlink...

  • boleweb a dit le

    Le problème est que les meilleures places dans google sont occupées actuellement par tous les mastodondes qui se partagent les revenus du web sans vraiment apporter de plus value en terme de contenu.

    Panda aura donc un intérêt s'il fait ressortir certains petits sites intéressants qui prendront la place de gros inintéressants !

    Mais ça me parait compliqué car finalement seul l'humain est capable aujourd'hui de faire objectivement ce travail et le petit panda risque simplement de dégager les gros au profit d'autres gros.

    Seule solution : changer nos habitudes et aller voir en 2eme et 3eme page google ce qui s'y passe ! Car la première page n'est pas synonyme de qualité !!

  • axel a dit le

    Avez-vous des nouvelles de cet update. J'ai entendu dire qu'il avait eu lieu avant les grandes vacances mais je n'ai pas vu de différence notable, ni sur mes sites ni lors de mes recherches personnelles.
    Des sites ont été touchés en particulier?

  • Olivier Duffez a dit le

    tu n'as sans doute rien lu sur WebRankInfo depuis cet été alors ;-)
    Cet update est désormais appelé "Panda", il est arrivé en France le 12 aout. D'autres mises à jour ont eu lieu ensuite, par exemple fin septembre. Récemment il y a eu de gros changements, sans doute encore Panda.
    Je te conseille de lire mon dossier spécial sur Panda

Postez un commentaire !

Les champs marqués du signe * sont obligatoires. L'adresse email ne sera pas affichée.

En postant un commentaire, vous acceptez les CGU du site WebRankInfo.

Annonces Google

Catégories des dossiers

Consultez les dossiers par thématiques :

Annonces Google

Formation référencement et webmarketing

Venez chez Ranking Metrics vous former au référencement, à Google AdWords et Analytics ainsi qu'aux réseaux sociaux ! Plus de 4000 entreprises sont déjà venues (Dossier possible OPCA, DIF...).

Préparés et animés par Olivier Duffez (WebRankInfo) et Fabien Faceries (AgentWebRanking), 2 professionnels reconnus dans le domaine, nos modules sur le référencement naturel sont très complets tout en laissant une grande place à l'interactivité pour répondre à toutes les questions des participants.

Pour connaître le plan détaillé de chaque module, le prix, les dates et les lieux, consultez le site de Ranking Metrics (organisme de formation).

Hébergement web

Hébergement web mutualisé et dédié

Pour un bon référencement, il faut un bon hébergeur. Testez Sivit by Nerim, l'hébergeur choisi par Olivier Duffez pour son site WebRankInfo.

A partir de 3€ HT/mois.