Cet article fait partie des archives de WebRankInfo : certes, il est ancien, mais complet et détaillé pour son époque. Si vous cherchez d'autres informations, faites une recherche sur le site ou participez au forum. Contactez-moi si besoin.
L'annonce officielle de Google
Amit Singhal et Matt Cutts ont publié un article sur le blog officiel de Matt Cutts, expliquant qu'ils venaient de mettre en place un changement d'Amit Singhal important, concernant le classement des résultats naturels.
Alors que la plupart des modifications d'algorithme passent inaperçues, celle-ci est qualifiée de majeure puisqu'elle devrait concerner autour de 12% des requêtes. Même s'ils ont pris soin de ne pas utiliser l'expression Content Farm, nous savons bien que Matt Cutts vise particulièrement ce type de sites.
Ils expliquent que cela fait de nombreux mois qu'ils travaillaient sur cet update, une manière de se défendre contre les accusations récentes sur leur mauvaise lutte contre le spam. L'extension Google Matt Cutts "Personal BlockList" sortie la semaine dernière, apparemment largement adoptée et approuvée par les internautes, n'est officiellement pas (encore ?) exploitée. Par contre, ils ont analysé les sites les plus bloqués par les utilisateurs de cette extension et ont comparé avec leur liste des sites les plus pénalisés par leur nouveau filtre : 84% des 50 sites les plus bloqués par les utilisateurs ont également été détectés par l'algo.
Définition de ferme à contenus
Contrairement à ce que certains disent ou écrivent, cela n'a rien à voir avec les agrégateurs de contenus (qui republient des articles ou extraits déjà publiés ailleurs) ou les sites communautaires et/ou à Matt Cutts (Matt Cutts). Wikipédia ou les forums ne sont donc pas des fermes à contenu.
Un site de type ferme à contenus fonctionne sur le principe du "contenu à la demande". L'analogie avec la "vidéo à la demande" est voulue, car c'est bien l'internaute qui est à la base de la demande de contenu. Voici donc ma proposition de définition de ferme à contenu :
Une ferme à contenu est un site qui publie un (très) grand nombre d'articles, sur des sujets précis ayant été préalablement identifiés comme des sujets recherchés par les internautes et donc susceptibles de générer du trafic (et donc des revenus), avec la particularité de produire des contenus à très bas coût et donc souvent de faible qualité.
En clair, la Matt Cutts de ces sites est dictée par la demande (supposée) des consommateurs ! Autant dire qu'on peut fortement s'éloigner du journalisme.
Pour aller au bout des choses et pousser l'optimisation aussi loin que possible, les éditeurs de ces sites doivent bâtir un système constitué de plusieurs "briques" :
- un algorithme qui détecte les demandes des internautes et produit en sortie une multitude de sujets d'articles à écrire. C'est en quelque sorte le royaume de Amit Singhal !
- une plateforme permettant de trouver un rédacteur pour chaque article, le plus rapidement et le moins cher possible. Les contraintes imposées sont malheureusement susceptibles de contribuer à la création d'articles de faible qualité...
- un CMS permettant de publier les articles de manière ultra optimisée pour le référencement, tout en monétisant le site en général par la publicité
- des outils de web analytics pour mesurer les performances des articles publiés, aider l'algorithme
Comment Google pourrait repérer les fermes de contenu
A moins de se connecter au cerveau d'Amit Singhal ou de Matt Cutts, difficile de savoir sur quels critères précis Matt Cutts se fonde. J'ai donc essayé de dresser la liste des caractéristiques des fermes de contenus qui produisent des articles de faible qualité et qui sont désormais dans le radar de Matt Cutts. Mais on sait très bien que les choses ne sont pas si simples, que tous les sites "soit-disant fermes de contenus" ne sont pas forcément des spammeurs, ou qu'il faut filtrer certaines de leurs pages et conserver les autres... Cependant, il est désormais officiel que Matt Cutts les pénalise.
Voici donc certains éléments sur lesquels Matt Cutts pourrait se baser pour les détecter... ou pas ! Comme souvent dans le Matt Cutts, c'est plutôt la conjonction de plusieurs facteurs qui peut faire déclencher le filtre de Matt Cutts. J'ai complété l'article de Ted Chef en y ajoutant quelques idées ainsi que mes commentaires.
- Sur-optimisation des mots-clés (expressions-clés) notamment dans la balise title, le H1, très optimisées pour une expression donnée précise
- Enorme indice de densité... Alors qu'on sait que ça ne sert à rien, en fait dans les cas extrêmes ça pourrait permettre de détecter les pages de spam ?
- Aucun lien sortant intégré dans le contenu éditorial (ou alors ils sont tous nofollow)
- Faible qualité éditoriale (est-ce si facile que ça à détecter ? je n'en suis vraiment pas sûr, même si Google progresse petit à petit sur ce créneau)
- Des articles trop superficiels, parfois constitués uniquement de simples listes à puces
- Pas de nom d'auteur ; est-ce vraiment un facteur si grave que ça ? Les pages de Wikipédia ne font pas apparaître clairement d'auteur par exemple.
- Très nombreux articles sur le même sujet, avec seulement quelques petites différences entre 2 pages
- Très nombreux liens internes vers d'autres articles, avec plusieurs erreurs de pertinence (liens hors sujet ou ne correspondant pas exactement à la page de destination)
- Abondance de publicités y compris Amit Singhal :-)
- Très faible engagement des internautes avec les contenus :
- rares liens profonds ou bien issus de sites à très faible notoriété,
- rares partages sur les réseaux sociaux (Twitter, Facebook, etc.) depuis des profils à bonne notoriété,
- forte proportion d'internautes retournant sur la page de résultats Google très peu de temps après avoir consulté la page (pogo sticking, à ne pas confondre avec la notion de taux de rebond)
- faible proportion d'internautes mettant cette page en favoris / bookmarks (dans leur navigateur ou dans les SERP de Google)
Que pensez-vous de ces critères ? Merci d'indiquer vos autres idées, il est évident qu'il en manque !
Edit : consultez également l'avis des rédacteurs web sur les fermes à contenus.
Edit : je mets à jour cet article suite aux premières analyses des sites qui ont été pénalisés par cette mise à jour, appelée Google Farmer Update au début puis Google Panda ensuite.
Résultats de la "Google Farmer Update" (appelée depuis "Panda")
Les premières analyses semblent montrer que :
- de nombreux sites de type Content Farm se sont effectivement fait pénaliser (fortement), mais pas eHow, un des plus célèbres d'entre eux, géré par Demand Media, le plus gros du secteur.
- des concurrents à Google Shopping semblent avoir été également victimes de cette mise à jour
- des géants du web profitent de cette mise à jour Farmer Update, tels que Youtube.com, Facebook.com
Sources : sistrix, growmap, SE Land, SEOBook.com
Avez-vous des nouvelles de cet update. J'ai entendu dire qu'il avait eu lieu avant les grandes vacances mais je n'ai pas vu de différence notable, ni sur mes sites ni lors de mes recherches personnelles.
Des sites ont été touchés en particulier?
tu n'as sans doute rien lu sur WebRankInfo depuis cet été alors ;-)
Cet update est désormais appelé "Panda", il est arrivé en France le 12 aout. D'autres mises à jour ont eu lieu ensuite, par exemple fin septembre. Récemment il y a eu de gros changements, sans doute encore Panda.
Je te conseille de lire mon dossier spécial sur Panda
Le problème est que les meilleures places dans google sont occupées actuellement par tous les mastodondes qui se partagent les revenus du web sans vraiment apporter de plus value en terme de contenu.
Panda aura donc un intérêt s'il fait ressortir certains petits sites intéressants qui prendront la place de gros inintéressants !
Mais ça me parait compliqué car finalement seul l'humain est capable aujourd'hui de faire objectivement ce travail et le petit panda risque simplement de dégager les gros au profit d'autres gros.
Seule solution : changer nos habitudes et aller voir en 2eme et 3eme page google ce qui s'y passe ! Car la première page n'est pas synonyme de qualité !!
A voir ce que la nouvelle mise à jour va donner en France car ca promet... J'ai du mal à concevoir qu'un site de communiqué de presse par exemple soit considéré comme une ferme de contenu si son contenu est qualitatif, et unique... Même si celui ci n'a pas beaucoup de backlink...
Question : un site comme 123people.fr, c'est une ferme à contenu ?
A ma connaissance, 123people ne crée pas des pages éditoriales et ne peut donc pas être considéré comme une ferme de contenus. Par contre, ce site sera-t-il considéré par le nouvel algo de Google comme étant de trop faible qualité ? Réponse dans quelques semaines quand ce nouvel algorithme Panda sera appliqué sur les autres versions de Google que google.com
Quid des agences de presse en ligne?
Google voulant enrichir son algo d'indices sociaux,on a pas fini d'entendre parler des rachats de ce dernier dans les médias sociaux; et Twitter qui résiste saisira sa chance un de ces jours, je pense.
Ton article est bien pensé Olivier D. et m'a fait penser a un truc au niveau du linking:
l'importance du nombre de liens bilatéraux (A pointe vers B et B pointe vers A), pourrait-il être un facteur pénalisant ?
Wilfried
ps: Merci pour ce lien Laurent ; très instructif.
amitiés
Si j'en crois les propos de Singhal et Cutts dans , il y aurait des critères plus subjectifs comme la confiance.
Ils ont corrélé l'algo avec des données "humaines" qui répondaient à des questions telles que :
“Would you be comfortable giving this site your credit card? Would you be comfortable giving medicine prescribed by this site to your kids?”
Petite question :
Facebook.com semblerait être l'un des gagnants de la mise à jour, trouvez-vous réellement qu'une page Facebook est pertinante ?
Chers amis,
Ne vous excitez pas. Tout ceci ne concerne QUE les US. Lisez les blogs officiels de Google. Rien de tout cela n est appliqué en France ! Rien.
Si vous voulez faire bouger les choses, je vous propose d 'aller demander a Matt Cutts sur son twitter si il compte faire qqchose pour la France.
Peut etre que si on est 550 a lui demander il va bouger ses fesses.
En tant qu'internaute j'ai horreur de tomber sur ce genre de sites, c'est irritant ! Ces gros sites d'articles qui monopolisent les serp n'ont aucun intérêt et c'est normal que google s'en occupe.
Il y aura des dégâts collatéraux comme toujours mais c'est le prix a payer pour avoir des serp bien propres :-)
Je me demandais justement quelles techniques ils pouvaient bien employer pour repérer les fermes de contenus. Ce qui est décrit dans l'article présente bien comment Google peu "démasquer" les fermes de contenus; en revanche c'est moins flagrant en ce qui concerne la détection des contenus de "faible" qualité, et ce n'est pas étonnant car je vois pas bien comment il pourraient faire ça. Il faudrait développer des analyses sémantiques extrêmement puissantes que même google ne semple pas encore maîtriser. D'autant qu'il faudrait ensuite appliquer ça pour toutes les langues...
Je trouve que Google prend le problème à l'envers et se laisse pervertir par Adsense. Google modifie son moteur en ajoutant rustine sur rustine et devient de moins en moins universel. A l'inverse au niveau d'Adsense aucune réaction alors qu'il semblerait parfaitement logique de censurer la publicité sur les fermes à contenu. Pas de pub, pas de revenu, et ce serait la fin des fermes à contenu. N'importe quel annonceur classique refuserait de voir ses annonces sur des sites trash ou de piètre qualité. Ma définition de ferme à contenu : énorme salmigondi de textes, de liens, et d'infos sans hiérarchie sans design et sans ligne rédactionnelle.
Oui merci, je ne les avais pas vu.
Ces articles sont très intéressants. Ils concernent les USA. Est-ce que la France commence à être touchée ?
Suite à la lecture de ces articles où certains accusent GG d'avoir contribué à ces fermes de liens en mettant à disposition GG Adsense et les revenus associés, il me vient une réflexion : GG pourrait sélectionner les sites éditeurs ! Après ça devient compliqué pour gérer les intérêts de tous.
@ Olivier, qu'entends-tu par "des concurrents à Google Shopping semblent avoir été également victimes de cette mise à jour" ?
Les comparateurs de prix sont-ils dans le colimateur ?
@dgv : c'est indiqué dans les liens que j'ai fournis, qui listent des comparateurs qui semblent avoir été touchés
Petite question, est-ce que Google s'est attaqué spécifiquement aux fermes de contenus, dont en plus de la piètre qualité éditoriale, on peut effectivement les reconnaître au fait qu'ils ont toujours des sujets trendy avec beaucoup d'addsense, ou la modification de algorithme a eu une ampleur plus conséquente pour des voisins type annuaire de piètre qualité, forum de type Commentçamarche.net et autres?
J'ai vu que l'impact était, par exemple, assez conséquent sur les DiggLike...
Même si les critères sont à étudier le fait d'entamer une liste est très judicieux. Pour moi cependant certains sont peu être un peu trop large ou difficilement mesurables. Dans tous les cas il faut prendre chaque critère comme un indice, et non comme une preuve en soi.
Pour ce qui est "des pages qui s'adaptent à la requête des internautes" c'est peut être interdit, mais comment fait Google pour les repérer ? pour l'instant ils continuent d'en exister à foison.
En examinant quelques uns des sites de la liste du top 25 des gadins de Sistrix, on constate que certains sites de publication d'articles sont affectés.
Il s'agit de sites qui permettent à des auteurs de créer des articles sur des milliers de sujets différents.
Il serait intéressant de voir si des sites comme about.com (qui a des rédacteurs attitrés) ou squidoo.com (qui joue la carte communautaire) sont également affectés
http://www.carnets-referencement.com/google-farmer-update-qui-sont-les-perdants.html
On est pas simplement en train de parler de ces bons vieux MFA (made for adsense), là ?
Je vois pas bien ce qu'il y a de nouveau, sauf le fait que GG annonce vouloir s'en occuper. Mais bon, j'en ai vu pas mal se faire blacklister ces dernières années, donc GG sévissait déjà.
Le risque,je pense, d'un algo pour ça, c'est de pénaliser les petits sites amateurs, qui n'ont pas de vraie qualité rédactionnelle (c'est des amateurs !), mais qui constituent quand même la majorités des sites sur la toile, et de favoriser ainsi une sorte de pensée unique.
@Frederic Montagnon : je trouve que le site les-experts.com assez limite au niveau de la pertinence car outre le fait que les sujets sont particulièrement des sujets SEO, le site est censé donner des conseils à l'achat avec plein d'articles de type "Où acheter bla bla bla" et il n'y a même pas de liens externes vers les sites en question. Si c'est vraiment un site de partage d'infos pourquoi ne pas mettre ce type de liens ? Ex de cet article : pourquoi ne pas mettre un lien vers Conforama ?
Je pencherais plutôt sur un ensemble de pages. Webrankinfo doit avoir un champ sémantique cohérent sur le référencement sur le domaine
www.webrankinfo.com
tostaki1 : ça ne tient pas, il y a plein de sites légitimes qui abordent des nombreux sujets très variés (ex: wikipédia mais plein de boutiques en ligne également)
Suite 101 a typiquement une logique de ferme à contenu.C'est un site qui se vantait de n'avoir que 3% d'internautes passant par sa page d'accueil. (un très bon article sur le sujet: http://blog.slate.fr/labo-journalisme-sciences-po/2010/07/20/suite101-fr-la-logique-du-clic/ )
Or c'est bien là le problème de ce genre de site: ils n'ont pas le souci du développement de marque, et font preuve d'opportunisme extrême quant au choix du développement de leurs sujets.
D'ailleurs, quand Olivier parle d'une ligne éditoriale basée sur la demande du consommateur, je pense pour ma part qu'on peut même parler d'absence de ligne éditoriale. Serait-ce d'ailleurs sur l'absence d'un champ sémantique cohérent et dirigé que Google a basé ses filtres ou un simple blacklistage? On peut se poser la question
tostaki1, comment peux-tu détecter "l'absence de champ sémantique cohérent et dirigé" ? est-ce page par page ou sur un ensemble de pages ?
> Un site possède un moteur de recherche interne. L'internaute cherche "306 peugeot grise à Paris". Le site va alors automatiquement créer une nouvel
>> @webmaster Lyon : cette pratique est très précisément interdite par les consignes de Google... donc risquée
bonjour - ou cette interdiction est elle indiquee ? url please ?
@nk : c'est sur :
(lire également l'avis de Matt Cutts sur la question, même s'il est ancien)
Peut-être aussi à ajouter le ciblage à outrance autour d'une requête.
En d'autres termes, une ferme de contenu va cibler tout un panel de requêtes autour d'un sujet en publiant à chaque fois un article différent dans le seul but d'attaquer une variante.
Exemple frappant sur
-http://www.ehow.com/apply-card-credit-online/
Laurent : désolé, ton commentaire était passé dans les indésirables et comme j'en ai trop, je ne les regarde jamais.
Concernant ta remarque, ça rejoint ce que j'avais écrit dans mon article : "Très nombreux articles sur le même sujet, avec seulement quelques petites différences entre 2 pages"
@Olivier : j'aime bien les 4 points de ta définition : ils définissent simplement le métier de SEO white hat (si on enlève le netlinking) sans être totalement complet.
J'ai toujours amélioré la performance de sites juste en passant à Worpress.
A contenu équivalent, le bénéf plateforme est énorme.
J'espère que ça ne va pas changer...
Les premiers metrics arrivent : http://www.sistrix.com/blog/985-google-farmer-update-quest-for-quality.html
Qu'en pensez-vous ?
Si leur outil de mesure est fiable, ça fait plutôt peur ! Enfin, je ne connais pas vraiment les sites de ce top 25, peut-être qu'ils méritaient une telle chute, mais quand même c'est impressionnant.
Remarque: la semaine dernière l'info à propos des fermes de contenus et de l'action de Google passe. Quelques sites en parlent. Deux ou trois jours plus tard Google "avoue" ne pas trop y parvenir. Plus personne n'en parle. Et cette semaine, revirement brutal de Google qui fait l'annonce de cette mise à jour. Et là c'est le délire, tout le monde en parle et tout le monde a oublié qu'il y a huit jours Google laissait tomber (ou presque).
C'est quoi, tout ce cinéma ? Ce faux buzz ?
En revanche, ici, bravo pour l'étude et le niveau de réflexion.
Je ne vois pas bien à quel moment il a été question de Google qui "laissait tomber" ? Par ailleurs, Google prétend avoir travaillé près d'un an sur cette mise à jour. Danny Sullivan a confirmé avoir eu des contacts avec Google sur ce sujet en janvier 2010.
Il me semble que cette liste des critères pour détecter les fermes à contenus soulève des hypothèses très pertinentes... Donc merci déjà pour cet article :)
Clairement, par exemple, citer le nom de l'auteur est un critère de qualité essentiel pour juger de la validité d'une information.
Même si les articles de Wikipédia ne sont pas signés, on peut consulter l'historique des éditions et retrouver la liste des contributeurs. Je pense vraiment que ce critère sera de plus en plus important sur le Web, tout comme il l'est en presse écrite, avec le temps.
Bonsoir,
Un point que j'ai du mal à saisir mais vous allez certainement m'éclairer.
Quand Frédéric cite "le taux de rebond" comme un critère très probable pour la détection par Google d'une ferme de contenu, encore faut il qu'il puisse l mesurer.
Il le fait pour les sites pour lesquels on utilise un service Google (par ex Google Webmaster Tools) mais si un webmaster évite de passer par un service google comment le moteur de recherche peut il évaluer le taux de rebond...?
Merci pour vos lumières...
Le taux de rebond n'est pas mesuré par Google Webmaster Tools mais plutôt par Google Analytics.
D'une manière générale, Google estime le taux de rebond avec des outils comme la barre d'outils Google, ou bien Google Chrome (à condition que l'utilisateur ait configuré ces outils pour autoriser Google à récupérer des infos).
Je pense qu'il s'agit plus d'une action de communication de crise qu'une réelle mise à jour de l'algo.
Google étant massivement critiquée ces derniers temps, il se devait de réagir. Tous les critères servant à définir une ferme de contenu peuvent aussi servir à définir un site jeune et débutant.
CMS => Facile à installer. Ca ne signifie en rien qu'il s'agit d'une potentielle ferme de contenu.
Peut de liens profonds => Alors les référenceurs savant générer des liens profonds passeront devant ces sites là ? Quitte à ce que ce soit dans ce cas là non plus une ferme de contenu mais de liens ? Un débutant qui lance son premier blog aura peu de chance de savoir le mettre en valeur et lui offrir de la visibilité. Donc il a également peu de chance d'obtenir du lien profond.
Bref, la détection automatique de ferme de contenu de mauvaise qualité est bien plus compliquée que ce qu'on le pense d'après moi. Et c'est avant tout le Spam Report des concurrents qui continuera de les faire tomber
Mais pourquoi parlez-vous du CMS comme étant un critère négatif ? Sans doute que vous interprétez mal ce que j'ai écrit... il va falloir que j'améliore mon texte ;-)
Bonjour, qu'en est il des sites de communiqué de presse avec des catégories ? A terme, Google va t'il les prendre en grippe ou passeront ils à travers ? Des pistes de ce coté la ? Que ca nous ruine pas notre ref ^^
Etant donné que les sites de communiqué de presse ont quasi tous des liens sortant dans leur contenu ( c'est un peu le but ), ils ne devraient pas être considéré comme "ferme de contenu" en théorie, non ?
Merci - Régis
Google commence à devenir pénible avec ses contraintes. Il semble que ses dirigeants n'aime pas l'idée qu'on puisse se servir de son outil pour faire de l'argent. Les-experts.com ne me dérange pas du tout et je ne vois pas pourquoi ce type de site devrais être pénalisé, ils peuvent apporter des réponses à des questions qui n'ont pas encore été soulevé. La valeur ajoutée est effective.
C'est très intéressant de lancer ce recensement pour tenter d'y voir plus clair.
Pas spécialement de critère à ajouter mais la conviction à ce stade de la prééminence de certain éléments, en l'occurrence le PersonRank (celui qui a développé l'appellation appréciera à l'occasion la reprise par tes soins Olivier, surtout après s'être fait taclé sur la question récemment).
La raison est claire, autant des techniques automatisées pourront toujours piéger plus ou moins l'algorithme qui par essence est lui même automatique, autant le feedback utilisateur, sera beaucoup plus difficilement trucable.
A ce stade on pourra rétorquer qu'il suffira d'automatiser des comptes sur réseaux sociaux pour faire la même chose, sauf que la valeur intrinsèque de ces vecteurs est le produit de multiples facteurs, et liée à la valeur que d'autres utilisateurs leur donne.
On pourra donc multiplier les BL cheap, mais beaucoup plus difficilemnt valoriser le bot émetteur.
Ça mériterait d'être développé, mais pas en simple commentaire.
je ne vois pas pourquoi G ferait le ménage , car ces "sites" de contenus leur amène beaucoup de revenu en redistribuant du Adword en Adsense ....
je viens de recevoir la news letters optimisation
Sic : "Conseil d'optimisation du mois
Boostez vos revenus AdSense en ajoutant de nouvelles annonces sur vos pages !
En créant de nouvelles annonces, vous augmentez vos chances de monétiser le trafic sur votre site. Prenez exemple sur le sitedesmarques.com, créez de nouvelles annonces dès maintenant ! Vous pouvez ajouter jusqu’à 3 annonces, 3 blocs de liens et 2 champs de recherche sur chacune de vos pages."
Le site des marques n'est il pas un agrégateur de contenus ?
Voila une annonce qui risque de modifier la donne sur les pages de résultats. Bons nombres de sites sont menacés de disparition...
Dans la liste des éléments, j'ajouterai le fait de créer automatiquement une nouvelle page suite à la requête de l'internaute.
Exemple :
Un site possède un moteur de recherche interne. L'internaute cherche "306 peugeot grise à Paris". Le site va alors automatiquement créer une nouvelle page optimisée pour cette requête. Etc, etc...
Pratique largement utilisée par bon nombre de gros sites.
@webmaster Lyon : cette pratique est très précisément interdite par les consignes de Google... donc risquée
Difficile pour lui de détecter les bons contenus. Avec Facebook & Twitter, il peut facilement si un article est intéressant.
Je pense qu'il va aussi prendre en compte le temps que passe l'internaute sur le site. Il arrive à voir dans une page qu'elle contient un article de 1000 caractères et que l'internaute ne reste pas plus de 5 secondes.
Peut être aussi les faibles visiteurs envoyés via les réseaux sociaux...
Ta liste est déjà bien constitué.
Est ce qu'une stratégie ne pourrait pas être de pénaliser les sites qui ont trop de contenu sur trop de sujets différents et privilégier ceux qui ont du contenu sur une thématique précise ? Évidemment, contre-exemple Wikipedia mais ça peut ramener dans les filets des sites comme Wikio ou Yahoo! answers
@Alexiane Votre commentaire est un peu gratuit, vous ne trouvez pas? :)
Qu'est ce qui vous fait dire que "Le contenu n'est pas pertinent ? Ce qui est pertinent pour vous ne l'est pas forcement pour un autre. Je trouve que regarder une émission de télé réalité est une perte de temps, pourtant elles font d'excellents score d'audience. La plupart des discussions SEO que l'on trouve ici sont peu pertinentes pour moi, certaines le sont.
Une seule chose peut mettre tout le monde d'accord: des KPIs. Un contenu pertinent c'est un tx de rebond faible, du temps passé, des recommandations sur Facebook&co, du trafic spontané, des CTR, etc... Sur ces aspets, faites moi confiance, nous sommes bons. Je ne connais pas l'algorithme de Google, mais il est évident que ce sont ces métriques qui sont utilisées pour repérer les bons contenus.
Concernant la rémunération des articles, nous payons en fonction de la qualité et de l'ancienneté nos contributeurs. Il est évident qu'une personne fraichement inscrite ne pourra pas toucher les mêmes rémunérations qu'un rédacteur confirmé avec lequel nous travaillons depuis des mois. Rapporté à l'heure, nos rédacteurs touchent en moyenne une rémunération 30% au dessus du SMIC.
Merci Frederic pour ces précisions.
Pour le taux de rebond et le temps passé, ce n'est a priori pas mesurable pour les visites à une page, qui sont pourtant très nombreuses.
Mais je suis d'accord que Google doit certainement beaucoup utiliser des critères liés au comportement des internautes, le fameux PersonRank ou SocialRank dont on parle de plus en plus.
Aucun lien avec WordPress en effet !!
L'équipe anti-spam de Google est tout de même encore loin du compte, et le sera sans doute malheureusement encore longtemps.
A chaque nouvelle MAJ de l'algorithme, les spammeurs et autres inventent de nouvelles techniques pour s'adapter à ce changement d'algorithme.
C'est probablement un coup d'épée dans l'eau, une fois de plus !
Comment peut-on écrire ça sans même avoir jugé ?
Bonne initiative que de s'interroger sur les critères qui seront pris en compte.
Les critères on page, comme la suroptimisation ne sont pas forcément un indicateur de qualité de contenu.
Je me demande si cette histoire n'engendre pas une confusion entre Spam et qualité de contenu.
Un spammeur n'implique pas forcément une mauvaise qualité du contenu tandis qu'un site non spammy n'est pas un gage de qualité non plus.
Les sites visés par Google sont avant tout les sites non pertinents (Spammeurs et non spammy compris).
J'imagine plus la prise en compte du taux de clique et pourquoi pas d'autres éléments visant l'expérience utilisateurs que des facteurs on page. Ce n'est que mon point de vue ;-)
D'après Aaron Wall, le site Mahalo fait partie des sites pénalisés par ce nouvel algo : http://www.seobook.com/i-am-long-mahalo
Je n'ai pas d'avis sur ce sujet que je ne connais pas du tout. Mais du coup, je trouve ton article très instructif. Il est très intéressant de connaitre le fonctionnement du moteur de recherche le plus utilisé.
Merci
Je sais que c'est mal de citer des sites mais je trouve que le site les-experts.com est une sorte de ferme de contenu. Le contenu n'est pas pertinent, dans leur admin ils cherchent des rédacteurs pour un tarif misérable sur les requêtes les plus concurrentielles. Et ceci avec de l'adsense à gogo. Ce que je comprends pas c'est que c'est wikio qui a lancé ce site quand même... Je comprendrais que mon commentaire soit modéré mais c'est vraiment pour ouvrir le débat.
Si tu vois juste dans les éléments de détection des fermes de contenus, beaucoup de sites (qui n'en sont pas) risquent de tomber dans les geôles de Google.
En fait je pense qu'il y a d'autres critères plus avancés ! Je n'ai pas fini d'en faire l'analyse, donc je n'en parle pas ici. D'autres suggestions ?
donc utiliser wordpress on pourrais être pénaliser? on utilisant les CMS et les plugin de SEO ?
Je ne vois pas le rapport avec WordPress ou n'importe quel CMS ?