Portrait Olivier Duffez

Olivier Duffez

Créateur de WebRankInfo,
consultant en référencement

Panda 1.0, l'algo de Google contre les fermes à contenus ?

Par le biais de Matt Cutts, responsable de l'équipe de lutte contre le spam, Google a annoncé vouloir lutter contre les sites de type ferme à contenu, jugés produire des contenus de trop faible qualité. Le 24/02/2011, Google a annoncé officiellement avoir déployé son nouvel algorithme anti content farms. Mais sur quels critères un algorithme peut-il se baser pour détecter ces usines à contenu ? Voici quelques pistes, histoire de lancer le débat et quelques réflexions.

L'annonce officielle de Google

Amit Singhal
Amit Singhal, un des boss de l'algo chez Google

Amit Singhal et Matt Cutts ont publié un article sur le blog officiel de Google, expliquant qu'ils venaient de mettre en place un changement d'algorithme important, concernant le classement des résultats naturels.

Alors que la plupart des modifications d'algorithme passent inaperçues, celle-ci est qualifiée de majeure puisqu'elle devrait concerner autour de 12% des requêtes. Même s'ils ont pris soin de ne pas utiliser l'expression Content Farm, nous savons bien que Google vise particulièrement ce type de sites.

Ils expliquent que cela fait de nombreux mois qu'ils travaillaient sur cet update, une manière de se défendre contre les accusations récentes sur leur mauvaise lutte contre le spam. L'extension Google Chrome "Personal BlockList" sortie la semaine dernière, apparemment largement adoptée et approuvée par les internautes, n'est officiellement pas (encore ?) exploitée. Par contre, ils ont analysé les sites les plus bloqués par les utilisateurs de cette extension et ont comparé avec leur liste des sites les plus pénalisés par leur nouveau filtre : 84% des 50 sites les plus bloqués par les utilisateurs ont également été détectés par l'algo.

Définition de ferme à contenus

Contrairement à ce que certains disent ou écrivent, cela n'a rien à voir avec les agrégateurs de contenus (qui republient des articles ou extraits déjà publiés ailleurs) ou les sites communautaires et/ou à contenu généré par les utilisateurs (UGC). Wikipédia ou les forums ne sont donc pas des fermes à contenu.

Un site de type ferme à contenus fonctionne sur le principe du "contenu à la demande". L'analogie avec la "vidéo à la demande" est voulue, car c'est bien l'internaute qui est à la base de la demande de contenu. Voici donc ma proposition de définition de ferme à contenu :

Une ferme à contenu est un site qui publie un (très) grand nombre d'articles, sur des sujets précis ayant été préalablement identifiés comme des sujets recherchés par les internautes et donc susceptibles de générer du trafic (et donc des revenus), avec la particularité de produire des contenus à très bas coût et donc souvent de faible qualité.

En clair, la ligne éditoriale de ces sites est dictée par la demande (supposée) des consommateurs ! Autant dire qu'on peut fortement s'éloigner du journalisme.

Pour aller au bout des choses et pousser l'optimisation aussi loin que possible, les éditeurs de ces sites doivent bâtir un système constitué de plusieurs "briques" :

  • un algorithme qui détecte les demandes des internautes et produit en sortie une multitude de sujets d'articles à écrire. C'est en quelque sorte le royaume de Google Trends !
  • une plateforme permettant de trouver un rédacteur pour chaque article, le plus rapidement et le moins cher possible. Les contraintes imposées sont malheureusement susceptibles de contribuer à la création d'articles de faible qualité...
  • un CMS permettant de publier les articles de manière ultra optimisée pour le référencement, tout en monétisant le site en général par la publicité
  • des outils de web analytics pour mesurer les performances des articles publiés, aider l'algorithme

Comment Google pourrait repérer les fermes de contenu

A moins de se connecter au cerveau d'Amit Singhal ou de Matt Cutts, difficile de savoir sur quels critères précis Google se fonde. J'ai donc essayé de dresser la liste des caractéristiques des fermes de contenus qui produisent des articles de faible qualité et qui sont désormais dans le radar de Google. Mais on sait très bien que les choses ne sont pas si simples, que tous les sites "soit-disant fermes de contenus" ne sont pas forcément des spammeurs, ou qu'il faut filtrer certaines de leurs pages et conserver les autres... Cependant, il est désormais officiel que Google les pénalise.

Voici donc certains éléments sur lesquels Google pourrait se baser pour les détecter... ou pas ! Comme souvent dans le référencement naturel, c'est plutôt la conjonction de plusieurs facteurs qui peut faire déclencher le filtre de Google. J'ai complété l'article de Ted Chef en y ajoutant quelques idées ainsi que mes commentaires.

  • Sur-optimisation des mots-clés (expressions-clés) notamment dans la balise title, le H1, très optimisées pour une expression donnée précise
  • Enorme indice de densité... Alors qu'on sait que ça ne sert à rien, en fait dans les cas extrêmes ça pourrait permettre de détecter les pages de spam ?
  • Aucun lien sortant intégré dans le contenu éditorial (ou alors ils sont tous nofollow)
  • Faible qualité éditoriale (est-ce si facile que ça à détecter ? je n'en suis vraiment pas sûr, même si Google progresse petit à petit sur ce créneau)
  • Des articles trop superficiels, parfois constitués uniquement de simples listes à puces
  • Pas de nom d'auteur ; est-ce vraiment un facteur si grave que ça ? Les pages de Wikipédia ne font pas apparaître clairement d'auteur par exemple.
  • Très nombreux articles sur le même sujet, avec seulement quelques petites différences entre 2 pages
  • Très nombreux liens internes vers d'autres articles, avec plusieurs erreurs de pertinence (liens hors sujet ou ne correspondant pas exactement à la page de destination)
  • Abondance de publicités y compris AdSense :-)
  • Très faible engagement des internautes avec les contenus :
    • rares liens profonds ou bien issus de sites à très faible notoriété,
    • rares partages sur les réseaux sociaux (Twitter, Facebook, etc.) depuis des profils à bonne notoriété,
    • forte proportion d'internautes retournant sur la page de résultats Google très peu de temps après avoir consulté la page (pogo sticking, à ne pas confondre avec la notion de taux de rebond)
    • faible proportion d'internautes mettant cette page en favoris / bookmarks (dans leur navigateur ou dans les SERP de Google)

Que pensez-vous de ces critères ? Merci d'indiquer vos autres idées, il est évident qu'il en manque !

Edit : consultez également l'avis des rédacteurs web sur les fermes à contenus.

Edit : je mets à jour cet article suite aux premières analyses des sites qui ont été pénalisés par cette mise à jour, appelée Google Farmer Update. au début puis Google Panda ensuite..

Résultats de la "Google Farmer Update" (appelée depuis "Panda")

Les premières analyses semblent montrer que :

  • de nombreux sites de type Content Farm se sont effectivement fait pénaliser (fortement), mais pas eHow, un des plus célèbres d'entre eux, géré par Demand Media, le plus gros du secteur.
  • des concurrents à Google Shopping semblent avoir été également victimes de cette mise à jour
  • des géants du web profitent de cette mise à jour Farmer Update, tels que Youtube.com, Facebook.com

Sources : sistrixgrowmap, SE Land, SEOBook.com

Cet article vous a-t-il plu ?

Note : 5.0 (2 votes)
Cliquez pour voter !

62 commentaires

axel

Avez-vous des nouvelles de cet update. J'ai entendu dire qu'il avait eu lieu avant les grandes vacances mais je n'ai pas vu de différence notable, ni sur mes sites ni lors de mes recherches personnelles.
Des sites ont été touchés en particulier?

Olivier Duffez

tu n'as sans doute rien lu sur WebRankInfo depuis cet été alors ;-)
Cet update est désormais appelé "Panda", il est arrivé en France le 12 aout. D'autres mises à jour ont eu lieu ensuite, par exemple fin septembre. Récemment il y a eu de gros changements, sans doute encore Panda.
Je te conseille de lire mon dossier spécial sur Panda

boleweb

Le problème est que les meilleures places dans google sont occupées actuellement par tous les mastodondes qui se partagent les revenus du web sans vraiment apporter de plus value en terme de contenu.

Panda aura donc un intérêt s'il fait ressortir certains petits sites intéressants qui prendront la place de gros inintéressants !

Mais ça me parait compliqué car finalement seul l'humain est capable aujourd'hui de faire objectivement ce travail et le petit panda risque simplement de dégager les gros au profit d'autres gros.

Seule solution : changer nos habitudes et aller voir en 2eme et 3eme page google ce qui s'y passe ! Car la première page n'est pas synonyme de qualité !!

hams

A voir ce que la nouvelle mise à jour va donner en France car ca promet... J'ai du mal à concevoir qu'un site de communiqué de presse par exemple soit considéré comme une ferme de contenu si son contenu est qualitatif, et unique... Même si celui ci n'a pas beaucoup de backlink...

fiurghevhge

Question : un site comme 123people.fr, c'est une ferme à contenu ?

Olivier Duffez

A ma connaissance, 123people ne crée pas des pages éditoriales et ne peut donc pas être considéré comme une ferme de contenus. Par contre, ce site sera-t-il considéré par le nouvel algo de Google comme étant de trop faible qualité ? Réponse dans quelques semaines quand ce nouvel algorithme Panda sera appliqué sur les autres versions de Google que google.com

Emilie

Quid des agences de presse en ligne?

bureau

Google voulant enrichir son algo d'indices sociaux,on a pas fini d'entendre parler des rachats de ce dernier dans les médias sociaux; et Twitter qui résiste saisira sa chance un de ces jours, je pense.

Ton article est bien pensé Olivier D. et m'a fait penser a un truc au niveau du linking:
l'importance du nombre de liens bilatéraux (A pointe vers B et B pointe vers A), pourrait-il être un facteur pénalisant ?

Wilfried
ps: Merci pour ce lien Laurent ; très instructif.
amitiés

LaurentB

Si j'en crois les propos de Singhal et Cutts dans , il y aurait des critères plus subjectifs comme la confiance.
Ils ont corrélé l'algo avec des données "humaines" qui répondaient à des questions telles que :
“Would you be comfortable giving this site your credit card? Would you be comfortable giving medicine prescribed by this site to your kids?”

LamaHurlant

Petite question :
Facebook.com semblerait être l'un des gagnants de la mise à jour, trouvez-vous réellement qu'une page Facebook est pertinante ?

Peters

Chers amis,

Ne vous excitez pas. Tout ceci ne concerne QUE les US. Lisez les blogs officiels de Google. Rien de tout cela n est appliqué en France ! Rien.

Si vous voulez faire bouger les choses, je vous propose d 'aller demander a Matt Cutts sur son twitter si il compte faire qqchose pour la France.

Peut etre que si on est 550 a lui demander il va bouger ses fesses.

deleter23

En tant qu'internaute j'ai horreur de tomber sur ce genre de sites, c'est irritant ! Ces gros sites d'articles qui monopolisent les serp n'ont aucun intérêt et c'est normal que google s'en occupe.
Il y aura des dégâts collatéraux comme toujours mais c'est le prix a payer pour avoir des serp bien propres :-)

contact

Je me demandais justement quelles techniques ils pouvaient bien employer pour repérer les fermes de contenus. Ce qui est décrit dans l'article présente bien comment Google peu "démasquer" les fermes de contenus; en revanche c'est moins flagrant en ce qui concerne la détection des contenus de "faible" qualité, et ce n'est pas étonnant car je vois pas bien comment il pourraient faire ça. Il faudrait développer des analyses sémantiques extrêmement puissantes que même google ne semple pas encore maîtriser. D'autant qu'il faudrait ensuite appliquer ça pour toutes les langues...

odysseus

Je trouve que Google prend le problème à l'envers et se laisse pervertir par Adsense. Google modifie son moteur en ajoutant rustine sur rustine et devient de moins en moins universel. A l'inverse au niveau d'Adsense aucune réaction alors qu'il semblerait parfaitement logique de censurer la publicité sur les fermes à contenu. Pas de pub, pas de revenu, et ce serait la fin des fermes à contenu. N'importe quel annonceur classique refuserait de voir ses annonces sur des sites trash ou de piètre qualité. Ma définition de ferme à contenu : énorme salmigondi de textes, de liens, et d'infos sans hiérarchie sans design et sans ligne rédactionnelle.

dgv

Oui merci, je ne les avais pas vu.
Ces articles sont très intéressants. Ils concernent les USA. Est-ce que la France commence à être touchée ?

Suite à la lecture de ces articles où certains accusent GG d'avoir contribué à ces fermes de liens en mettant à disposition GG Adsense et les revenus associés, il me vient une réflexion : GG pourrait sélectionner les sites éditeurs ! Après ça devient compliqué pour gérer les intérêts de tous.

dgv

@ Olivier, qu'entends-tu par "des concurrents à Google Shopping semblent avoir été également victimes de cette mise à jour" ?
Les comparateurs de prix sont-ils dans le colimateur ?

Olivier Duffez

@dgv : c'est indiqué dans les liens que j'ai fournis, qui listent des comparateurs qui semblent avoir été touchés

JviewImmo

Petite question, est-ce que Google s'est attaqué spécifiquement aux fermes de contenus, dont en plus de la piètre qualité éditoriale, on peut effectivement les reconnaître au fait qu'ils ont toujours des sujets trendy avec beaucoup d'addsense, ou la modification de algorithme a eu une ampleur plus conséquente pour des voisins type annuaire de piètre qualité, forum de type Commentçamarche.net et autres?
J'ai vu que l'impact était, par exemple, assez conséquent sur les DiggLike...

Pour le web

Même si les critères sont à étudier le fait d'entamer une liste est très judicieux. Pour moi cependant certains sont peu être un peu trop large ou difficilement mesurables. Dans tous les cas il faut prendre chaque critère comme un indice, et non comme une preuve en soi.
Pour ce qui est "des pages qui s'adaptent à la requête des internautes" c'est peut être interdit, mais comment fait Google pour les repérer ? pour l'instant ils continuent d'en exister à foison.

Kilroy

En examinant quelques uns des sites de la liste du top 25 des gadins de Sistrix, on constate que certains sites de publication d'articles sont affectés.
Il s'agit de sites qui permettent à des auteurs de créer des articles sur des milliers de sujets différents.
Il serait intéressant de voir si des sites comme about.com (qui a des rédacteurs attitrés) ou squidoo.com (qui joue la carte communautaire) sont également affectés

http://www.carnets-referencement.com/google-farmer-update-qui-sont-les-perdants.html

Philipe

On est pas simplement en train de parler de ces bons vieux MFA (made for adsense), là ?

Je vois pas bien ce qu'il y a de nouveau, sauf le fait que GG annonce vouloir s'en occuper. Mais bon, j'en ai vu pas mal se faire blacklister ces dernières années, donc GG sévissait déjà.

Le risque,je pense, d'un algo pour ça, c'est de pénaliser les petits sites amateurs, qui n'ont pas de vraie qualité rédactionnelle (c'est des amateurs !), mais qui constituent quand même la majorités des sites sur la toile, et de favoriser ainsi une sorte de pensée unique.

Alexiane

@Frederic Montagnon : je trouve que le site les-experts.com assez limite au niveau de la pertinence car outre le fait que les sujets sont particulièrement des sujets SEO, le site est censé donner des conseils à l'achat avec plein d'articles de type "Où acheter bla bla bla" et il n'y a même pas de liens externes vers les sites en question. Si c'est vraiment un site de partage d'infos pourquoi ne pas mettre ce type de liens ? Ex de cet article : pourquoi ne pas mettre un lien vers Conforama ?

tostaki1

Je pencherais plutôt sur un ensemble de pages. Webrankinfo doit avoir un champ sémantique cohérent sur le référencement sur le domaine www.webrankinfo.com

Olivier Duffez

tostaki1 : ça ne tient pas, il y a plein de sites légitimes qui abordent des nombreux sujets très variés (ex: wikipédia mais plein de boutiques en ligne également)

tostaki1

Suite 101 a typiquement une logique de ferme à contenu.C'est un site qui se vantait de n'avoir que 3% d'internautes passant par sa page d'accueil. (un très bon article sur le sujet: http://blog.slate.fr/labo-journalisme-sciences-po/2010/07/20/suite101-fr-la-logique-du-clic/ )

Or c'est bien là le problème de ce genre de site: ils n'ont pas le souci du développement de marque, et font preuve d'opportunisme extrême quant au choix du développement de leurs sujets.

D'ailleurs, quand Olivier parle d'une ligne éditoriale basée sur la demande du consommateur, je pense pour ma part qu'on peut même parler d'absence de ligne éditoriale. Serait-ce d'ailleurs sur l'absence d'un champ sémantique cohérent et dirigé que Google a basé ses filtres ou un simple blacklistage? On peut se poser la question

Olivier Duffez

tostaki1, comment peux-tu détecter "l'absence de champ sémantique cohérent et dirigé" ? est-ce page par page ou sur un ensemble de pages ?

nk

> Un site possède un moteur de recherche interne. L'internaute cherche "306 peugeot grise à Paris". Le site va alors automatiquement créer une nouvel

>> @webmaster Lyon : cette pratique est très précisément interdite par les consignes de Google... donc risquée

bonjour - ou cette interdiction est elle indiquee ? url please ?

Olivier Duffez

@nk : c'est sur  :

Utilisez le fichier robots.txt pour empêcher l'exploration des pages de résultats de recherche ou d'autres pages générées automatiquement par les moteurs de recherche et qui n'offrent aucun intérêt particulier pour les internautes

(lire également l'avis de Matt Cutts sur la question, même s'il est ancien)

LaurentB

Peut-être aussi à ajouter le ciblage à outrance autour d'une requête.
En d'autres termes, une ferme de contenu va cibler tout un panel de requêtes autour d'un sujet en publiant à chaque fois un article différent dans le seul but d'attaquer une variante.
Exemple frappant sur
-http://www.ehow.com/apply-card-credit-online/

Olivier Duffez

Laurent : désolé, ton commentaire était passé dans les indésirables et comme j'en ai trop, je ne les regarde jamais.

Concernant ta remarque, ça rejoint ce que j'avais écrit dans mon article : "Très nombreux articles sur le même sujet, avec seulement quelques petites différences entre 2 pages"

Julien

@Olivier : j'aime bien les 4 points de ta définition : ils définissent simplement le métier de SEO white hat (si on enlève le netlinking) sans être totalement complet.

netking17

J'ai toujours amélioré la performance de sites juste en passant à Worpress.

A contenu équivalent, le bénéf plateforme est énorme.

J'espère que ça ne va pas changer...

Olivier Duffez

Si leur outil de mesure est fiable, ça fait plutôt peur ! Enfin, je ne connais pas vraiment les sites de ce top 25, peut-être qu'ils méritaient une telle chute, mais quand même c'est impressionnant.

Hegurka

Remarque: la semaine dernière l'info à propos des fermes de contenus et de l'action de Google passe. Quelques sites en parlent. Deux ou trois jours plus tard Google "avoue" ne pas trop y parvenir. Plus personne n'en parle. Et cette semaine, revirement brutal de Google qui fait l'annonce de cette mise à jour. Et là c'est le délire, tout le monde en parle et tout le monde a oublié qu'il y a huit jours Google laissait tomber (ou presque).
C'est quoi, tout ce cinéma ? Ce faux buzz ?
En revanche, ici, bravo pour l'étude et le niveau de réflexion.

Olivier Duffez

Je ne vois pas bien à quel moment il a été question de Google qui "laissait tomber" ? Par ailleurs, Google prétend avoir travaillé près d'un an sur cette mise à jour. Danny Sullivan a confirmé avoir eu des contacts avec Google sur ce sujet en janvier 2010.

Deborah Botton

Il me semble que cette liste des critères pour détecter les fermes à contenus soulève des hypothèses très pertinentes... Donc merci déjà pour cet article :)

Clairement, par exemple, citer le nom de l'auteur est un critère de qualité essentiel pour juger de la validité d'une information.

Même si les articles de Wikipédia ne sont pas signés, on peut consulter l'historique des éditions et retrouver la liste des contributeurs. Je pense vraiment que ce critère sera de plus en plus important sur le Web, tout comme il l'est en presse écrite, avec le temps.

blit

Bonsoir,

Un point que j'ai du mal à saisir mais vous allez certainement m'éclairer.

Quand Frédéric cite "le taux de rebond" comme un critère très probable pour la détection par Google d'une ferme de contenu, encore faut il qu'il puisse l mesurer.

Il le fait pour les sites pour lesquels on utilise un service Google (par ex Google Webmaster Tools) mais si un webmaster évite de passer par un service google comment le moteur de recherche peut il évaluer le taux de rebond...?

Merci pour vos lumières...

Lipocavitation

Je pense qu'il s'agit plus d'une action de communication de crise qu'une réelle mise à jour de l'algo.

Google étant massivement critiquée ces derniers temps, il se devait de réagir. Tous les critères servant à définir une ferme de contenu peuvent aussi servir à définir un site jeune et débutant.

CMS => Facile à installer. Ca ne signifie en rien qu'il s'agit d'une potentielle ferme de contenu.

Peut de liens profonds => Alors les référenceurs savant générer des liens profonds passeront devant ces sites là ? Quitte à ce que ce soit dans ce cas là non plus une ferme de contenu mais de liens ? Un débutant qui lance son premier blog aura peu de chance de savoir le mettre en valeur et lui offrir de la visibilité. Donc il a également peu de chance d'obtenir du lien profond.

Bref, la détection automatique de ferme de contenu de mauvaise qualité est bien plus compliquée que ce qu'on le pense d'après moi. Et c'est avant tout le Spam Report des concurrents qui continuera de les faire tomber

Olivier Duffez

Mais pourquoi parlez-vous du CMS comme étant un critère négatif ? Sans doute que vous interprétez mal ce que j'ai écrit... il va falloir que j'améliore mon texte ;-)

Régis

Bonjour, qu'en est il des sites de communiqué de presse avec des catégories ? A terme, Google va t'il les prendre en grippe ou passeront ils à travers ? Des pistes de ce coté la ? Que ca nous ruine pas notre ref ^^

Etant donné que les sites de communiqué de presse ont quasi tous des liens sortant dans leur contenu ( c'est un peu le but ), ils ne devraient pas être considéré comme "ferme de contenu" en théorie, non ?
Merci - Régis

Alain

Google commence à devenir pénible avec ses contraintes. Il semble que ses dirigeants n'aime pas l'idée qu'on puisse se servir de son outil pour faire de l'argent. Les-experts.com ne me dérange pas du tout et je ne vois pas pourquoi ce type de site devrais être pénalisé, ils peuvent apporter des réponses à des questions qui n'ont pas encore été soulevé. La valeur ajoutée est effective.

Arnaud

C'est très intéressant de lancer ce recensement pour tenter d'y voir plus clair.

Pas spécialement de critère à ajouter mais la conviction à ce stade de la prééminence de certain éléments, en l'occurrence le PersonRank (celui qui a développé l'appellation appréciera à l'occasion la reprise par tes soins Olivier, surtout après s'être fait taclé sur la question récemment).

La raison est claire, autant des techniques automatisées pourront toujours piéger plus ou moins l'algorithme qui par essence est lui même automatique, autant le feedback utilisateur, sera beaucoup plus difficilement trucable.

A ce stade on pourra rétorquer qu'il suffira d'automatiser des comptes sur réseaux sociaux pour faire la même chose, sauf que la valeur intrinsèque de ces vecteurs est le produit de multiples facteurs, et liée à la valeur que d'autres utilisateurs leur donne.
On pourra donc multiplier les BL cheap, mais beaucoup plus difficilemnt valoriser le bot émetteur.

Ça mériterait d'être développé, mais pas en simple commentaire.

onsecroyaitchic

je ne vois pas pourquoi G ferait le ménage , car ces "sites" de contenus leur amène beaucoup de revenu en redistribuant du Adword en Adsense ....

je viens de recevoir la news letters optimisation

Sic : "Conseil d'optimisation du mois
Boostez vos revenus AdSense en ajoutant de nouvelles annonces sur vos pages !

En créant de nouvelles annonces, vous augmentez vos chances de monétiser le trafic sur votre site. Prenez exemple sur le sitedesmarques.com, créez de nouvelles annonces dès maintenant ! Vous pouvez ajouter jusqu’à 3 annonces, 3 blocs de liens et 2 champs de recherche sur chacune de vos pages."

Le site des marques n'est il pas un agrégateur de contenus ?

1ternet

Voila une annonce qui risque de modifier la donne sur les pages de résultats. Bons nombres de sites sont menacés de disparition...

Yoann

Dans la liste des éléments, j'ajouterai le fait de créer automatiquement une nouvelle page suite à la requête de l'internaute.
Exemple :
Un site possède un moteur de recherche interne. L'internaute cherche "306 peugeot grise à Paris". Le site va alors automatiquement créer une nouvelle page optimisée pour cette requête. Etc, etc...

Pratique largement utilisée par bon nombre de gros sites.

Olivier Duffez

@webmaster Lyon : cette pratique est très précisément interdite par les consignes de Google... donc risquée

Caroline

Difficile pour lui de détecter les bons contenus. Avec Facebook & Twitter, il peut facilement si un article est intéressant.

Je pense qu'il va aussi prendre en compte le temps que passe l'internaute sur le site. Il arrive à voir dans une page qu'elle contient un article de 1000 caractères et que l'internaute ne reste pas plus de 5 secondes.

Peut être aussi les faibles visiteurs envoyés via les réseaux sociaux...

Ta liste est déjà bien constitué.

Alexia

Est ce qu'une stratégie ne pourrait pas être de pénaliser les sites qui ont trop de contenu sur trop de sujets différents et privilégier ceux qui ont du contenu sur une thématique précise ? Évidemment, contre-exemple Wikipedia mais ça peut ramener dans les filets des sites comme Wikio ou Yahoo! answers

Frederic Montagnon

@Alexiane Votre commentaire est un peu gratuit, vous ne trouvez pas? :)

Qu'est ce qui vous fait dire que "Le contenu n'est pas pertinent ? Ce qui est pertinent pour vous ne l'est pas forcement pour un autre. Je trouve que regarder une émission de télé réalité est une perte de temps, pourtant elles font d'excellents score d'audience. La plupart des discussions SEO que l'on trouve ici sont peu pertinentes pour moi, certaines le sont.

Une seule chose peut mettre tout le monde d'accord: des KPIs. Un contenu pertinent c'est un tx de rebond faible, du temps passé, des recommandations sur Facebook&co, du trafic spontané, des CTR, etc... Sur ces aspets, faites moi confiance, nous sommes bons. Je ne connais pas l'algorithme de Google, mais il est évident que ce sont ces métriques qui sont utilisées pour repérer les bons contenus.

Concernant la rémunération des articles, nous payons en fonction de la qualité et de l'ancienneté nos contributeurs. Il est évident qu'une personne fraichement inscrite ne pourra pas toucher les mêmes rémunérations qu'un rédacteur confirmé avec lequel nous travaillons depuis des mois. Rapporté à l'heure, nos rédacteurs touchent en moyenne une rémunération 30% au dessus du SMIC.

Olivier Duffez

Merci Frederic pour ces précisions.

Pour le taux de rebond et le temps passé, ce n'est a priori pas mesurable pour les visites à une page, qui sont pourtant très nombreuses.

Mais je suis d'accord que Google doit certainement beaucoup utiliser des critères liés au comportement des internautes, le fameux PersonRank ou SocialRank dont on parle de plus en plus.

Agence

Aucun lien avec WordPress en effet !!

L'équipe anti-spam de Google est tout de même encore loin du compte, et le sera sans doute malheureusement encore longtemps.

A chaque nouvelle MAJ de l'algorithme, les spammeurs et autres inventent de nouvelles techniques pour s'adapter à ce changement d'algorithme.

C'est probablement un coup d'épée dans l'eau, une fois de plus !

Olivier Duffez

Comment peut-on écrire ça sans même avoir jugé ?

Walid

Bonne initiative que de s'interroger sur les critères qui seront pris en compte.

Les critères on page, comme la suroptimisation ne sont pas forcément un indicateur de qualité de contenu.

Je me demande si cette histoire n'engendre pas une confusion entre Spam et qualité de contenu.

Un spammeur n'implique pas forcément une mauvaise qualité du contenu tandis qu'un site non spammy n'est pas un gage de qualité non plus.

Les sites visés par Google sont avant tout les sites non pertinents (Spammeurs et non spammy compris).

J'imagine plus la prise en compte du taux de clique et pourquoi pas d'autres éléments visant l'expérience utilisateurs que des facteurs on page. Ce n'est que mon point de vue ;-)

Arakiel

Je n'ai pas d'avis sur ce sujet que je ne connais pas du tout. Mais du coup, je trouve ton article très instructif. Il est très intéressant de connaitre le fonctionnement du moteur de recherche le plus utilisé.
Merci

Alexiane

Je sais que c'est mal de citer des sites mais je trouve que le site les-experts.com est une sorte de ferme de contenu. Le contenu n'est pas pertinent, dans leur admin ils cherchent des rédacteurs pour un tarif misérable sur les requêtes les plus concurrentielles. Et ceci avec de l'adsense à gogo. Ce que je comprends pas c'est que c'est wikio qui a lancé ce site quand même... Je comprendrais que mon commentaire soit modéré mais c'est vraiment pour ouvrir le débat.

Arkanys

Si tu vois juste dans les éléments de détection des fermes de contenus, beaucoup de sites (qui n'en sont pas) risquent de tomber dans les geôles de Google.

Olivier Duffez

En fait je pense qu'il y a d'autres critères plus avancés ! Je n'ai pas fini d'en faire l'analyse, donc je n'en parle pas ici. D'autres suggestions ?

Melekher.com

donc utiliser wordpress on pourrais être pénaliser? on utilisant les CMS et les plugin de SEO ?

Olivier Duffez

Je ne vois pas le rapport avec WordPress ou n'importe quel CMS ?

Les commentaires sont fermés