Vous êtes ici : Dossiers référencement > Ecrire pour le web et le référencement

Membre WebRankInfo ?

S'inscrire Aide

Conseils des rédacteurs web sur les fermes de contenus

Par , Mardi 8 mars 2011

Google a déclenché son nouvel algorithme visant spécialement les sites à contenu de très faible qualité (les fermes de contenu, terme que Google s'est gardé d'utiliser). J'ai déjà proposé des critères que Google pourrait utiliser pour détecter ce type de sites. Je le complète avec l'avis de 4 professionnels de la rédaction web, directement concernés par cette évolution de Google.

La rédaction web, au coeur des stratégies de référencement naturel

En préparant mes différents articles sur ce changement d'algorithme Google et sur ces fameuses usines à contenu, j'ai bien noté que tout ce "buzz" allait faire prendre conscience au plus grand nombre de l'importance de la rédaction web dans une stratégie de présence en ligne. Peut-être qu'on verra moins qu'avant la rédaction de contenus confiée à n'importe qui, genre le stagiaire qui passait par là ?

J'ai même déjà remarqué que depuis qu'on parle autant de ces fermes à contenu et surtout de Google qui va s'intéresser davantage à la qualité du contenu, les demandes d'inscription en formation rédaction web et référencement ont fortement augmenté. D'ailleurs, chez Ranking Metrics nous avons déjà mis à jour nos slides, afin de discuter de ces nouveaux aspects.

Note : depuis la publication de cet article, la mise à jour de Google est plus connue sous le nom de Panda Update. On sait également qu'elle ne vise pas que les content farms.

Formation Google Panda par Ranking Metrics

Formation spéciale mise à jour Google Panda, par Ranking Metrics

Mes questions

Pour cette mini-interview, j'ai eu le plaisir d'avoir le point de vue d'Isabelle Canivet (Action Rédaction), Eve Demange (Plume Interactive), Jean-Marc Hardy (60questions.net) et Muriel Vandermeulen (WAW We Are the Words). Je leur ai posé les 3 questions suivantes :

  • Quelle est votre définition de "ferme à contenu" ?
  • Selon vous, qu'est-ce qui caractérise un texte (sur le web) de mauvaise qualité ?
  • Selon vous, comment Google pourrait détecter ces pages ?

Définition de ferme de contenus

J'ai donné ma définition de ferme de contenu, voici la leur :

Isabelle : C'est un site web qui propose une masse de contenu dont l'unique objectif est de générer du trafic afin d'engranger des revenus économiques issus de la publicité.

Eve : Pour moi, une ferme à contenu, c'est comme son nom l'indique un endroit où l'on fait pousser du "contenu" avec beaucoup d'engrais chimique et peu de réflexion humaine, dans le seul but de gagner de l'argent. D'ailleurs, certains médias de piètre qualité pourraient bien ainsi se transformer en ferme à contenu s'ils ne prêtent pas garde à la qualité de ce qu'ils publient !

La "ferme à contenu" par excellence, c'est le site Internet qui a totalement renoncé à sa mission d'information des internautes. C'est le site web qui exclut l'utilisateur humain final. Ce site pervertit les règles du référencement en publiant un énorme volume de contenu bas de gamme, mais bien optimisé, pour drainer le trafic apporté par les moteurs de recherche. Le but final étant de gagner de l'argent avec la publicité, bien entendu. Aucune utilité pour l'internaute. De la pollution virtuelle dans un but économique. Un véritable parasite du web !

Jean-Marc : Comme vous, je ferais la différence entre les "pilleurs de contenu" et les "pondeurs de contenu". Dans le premier cas, on a affaire à des sites qui extraient des pans entiers de contenus en provenance d'autres sites et les agrègent. La copie de contenu ("duplicated content") est, il me semble, plus facile à identifier pour un moteur.

Les "fermes de contenu" tiennent plutôt de la production de contenu bas de gamme, où le contenu est une excuse pour venir placarder certaines publicités, ou rediriger les visiteurs vers des sites tiers. Notez que le "remplissage" existait déjà dans l'ancien monde, dans le chef de certains toutes-boîtes ou magazines spécialisés, dont l'existence repose essentiellement sur la publicité.

Là où les choses se compliquent, en termes de qualité (et de filtre qualité), c'est qu'il existe à mon sens tout un large spectre subtil passant de Wikipedia.org à Jetepiquetoncontenu.com, avec toutes les nuances intermédiaires : portails de qualité moyenne mais pas forcément critiquables pour autant, tentatives d'agrégation de contenu légitimes mais sans consistance, etc.

La presse elle-même n'a-t-elle pas très (trop) longtemps reposé sur un modèle de gros marché au bétail (les agences de presse) et de fournisseurs (les journaux) se contentant d'étiqueter un peu à leur manière les mêmes caissons d'information, à peine remis en scène ?

Vous savez, j'ai eu pour client (je ne citerai pas leur nom), il y a quelques temps, une de ces fermes de contenus, mais qui avaient tout de même des objectifs éditoriaux et une ligne éditoriale, derrière un projet essentiellement "fermier" (occuper du territoire mot clé). Où est la limite ?

Certains portails web (je pense à Doctissimo, par exemple, dans le domaine de la santé ou de la psychologie grand public) couvrent un périmètre très large de contenu, avec des articles qui sont de qualité que je qualifierais de moyenne. Ces contenus font fortement concurrence à des sites web, souvent plus consistants, mais moins connus, qu'il faut encore parfois aller chercher un rien plus loin dans les profondeurs du Web (chose que les gens ne font pas, en général). Doctissimo n'est pas une "ferme de contenu". Je n'ai pas dit cela "texto". Mais où est la limite ?

Toute cette réflexion se complique encore si on lui applique le prisme des attentes très variées : entre Monsieur-tout-le-monde et un internaute plus pointu, chacun ne cherche pas la même nourriture.

Muriel : Les fermes de contenus sont des sites créés spécifiquement pour générer des revenus publicitaires. Leur trafic est basé sur le référencement naturel. Le fond est donc strictement dicté par un potentiel de trafic estimé sur la base des statistiques de requêtes sur les moteurs et du potentiel des thématiques en terme d’activité publicitaire. Les contenus sont donc souvent de faible qualité puisqu’ils répondent, précisément, à des impératifs de trafic uniquement. Qu’est-ce qui caractérise un contenu en ligne de mauvaise qualité ?

Redaction web et referencement / Google Farmer Update

La qualité de la rédaction web, au coeur de l'algo Google de détection des fermes à contenus ?

Sur le web, qu'est-ce qui caractérise un texte de mauvaise qualité ?

Isabelle : Je préfère aborder la question autrement : qu'est-ce qui caractérise un texte de qualité ? Selon moi, un texte de qualité apporte un élément neuf, un point de vue original, une réflexion, une prise de position. Il est enrichi par l'hypertexte pertinent. Il tire profit du multimédia. Il est optimisé pour la lecture en ligne et, ce faisant, pour le référencement naturel. Il s'insère dans une stratégie éditoriale cohérente : ton, voix, messages, respect du guide de style, utilisation de termes référentiels, etc. Il est compréhensible, concis, cohérent et correct. Au-delà de ça, un contenu de bonne qualité convertit : création de liens entrants, fidélisation, ajout aux favoris, publication sur les réseaux (Twitter, par exemple), achat, téléchargement, contact, etc.

Eve : Voici les principales caractéristiques :

  • inutile pour l'internaute
  • inintéressant, le texte n'apporte rien de nouveau : soit parce que le niveau d'analyse, de réflexion, est très faible, soit parce qu'il se contente de copier un article qui existe déjà ailleurs sans rien apporter de nouveau. Les agrégateurs de contenu n'entrent pas dans cette catégorie parce qu'en regroupant des articles intéressants, en faisant un travail de sélection intelligent, ils créent une réelle valeur pour les internautes. J'ajouterai que sur wikio, par exemple, l'internaute sait très bien qu'il va trouver un article publié ailleurs. Il n'y a pas de "tromperie" sur la marchandise.
  • niveau de langage faible, fautes d'orthographe, beaucoup de répétitions
  • mise en page non adaptée à la lecture en ligne, à la compréhension : on peut penser que si un rédacteur ou un journaliste cherche à intéresser son lecteur, il va prendre soin d'organiser l'info de manière lisible.
  • réseau fermé de liens présentant peu d'intérêt pour l'internaute
  • éventuellement pas de discussions générées : mais on peut avoir un texte très utile, très consulté qui ne génère aucun commentaire.
  • l'absence de ligne éditoriale : un site Internet qui publie de gros volumes de contenus sans consistance éditoriale n'apporte pas de point de vue original (au sens de "unique") et donc peu de valeur au lecteur. Bien entendu, cela ne peut pas être détecté par un moteur.

Je ne trouve pas que ce soit mal de chercher à comprendre où se situe l'intérêt des internautes. Au contraire. Trop de sites Internet publient aujourd'hui à tort et à travers sans s'intéresser à ce qui amène les internautes sur leurs pages. Or, on peut s'intéresser à la demande des internautes et publier des textes top qualité. L'un n'empêche pas l'autre. Simplement, celui qui écrit ne doit pas chercher à plaire à tout prix (aux internautes ou aux moteurs). Le rédacteur se concentre sur la véracité et l'exactitude de l'info, la qualité de la réflexion et le style, toujours dans le but d'apporter la meilleure information possible à son lecteur.

Jean-Marc : La qualité du contenu en ligne m'absorbe à plein-temps. Il y a de multiples critères mais pour répondre à l'essentiel, concernant les fermes de contenu qui nous occupe, je pense qu'elles génèrent les symptômes de manque de qualité suivants :

  • Du contenu qu'il est possible de trouver ailleurs
  • Du contenu à faible densité informative (répétitions d'une page à l'autre, évidences,...*)
  • Du contenu sans valeur ajoutée iconographique (les photos, tout au plus décoratives)
  • Du contenu sans valeur ajoutée analytique (pas de réflexion innovante)
  • Du contenu à faible degré d'engagement (peu d'empathie, peu de débat, peu de personnalité)

* Une analyse linguistique pourrait évidemment avoir de l'intérêt. Et Google ne s'en prive pas, j'imagine. Ce doit être un champ passionnant que d'essayer de trouver les meilleurs algorithmes garants de la qualité d'un contenu. Complexe, critiquable, nécessaire et passionnant.

Attention à ne pas confondre densité informative avec densité de mots-clés ! Le lien entre les deux me semble même intéressant : des contenus à forte densité mot clé et faible densité informative me semblent potentiellement suspects.

Muriel : La qualité éditoriale ne se mesure certes pas à l’aune d’indicateurs scientifiques exacts et incontestables. Cependant, les responsables éditoriaux et communicants en ligne s’accordent sur une variété de critères, qui contribuent à assurer une bonne expérience utilisateur au niveau du contenu.

Sur mon blog, j’évoque une grille d’évaluation qualitative que nous utilisons lorsque nous réalisons un audit éditorial. Les critères utilisés sont:

  • La pertinence et l’utilité
  • La trouvabilité et l’ergonomie
  • La clarté et la précision
  • La cohérence et la justesse
  • L’influence et la démonstration

Ce sont les critères qui doivent aussi guider la création d’une ligne éditoriale, par exemple. J’en parle également sur mon blog.

Dans mon livre, j’utilise une autre formule pour qualifier un contenu «exemplaire», selon laquelle il s’agit de produire la bonne information, au bon endroit, de la bonne façon, au bon moment. En d’autres termes, la qualité d’un contenu se mesure, notamment, aux critères suivants:

  • la pertinence et la valeur ajoutée pour les groupes-cibles,
  • la correction des informations et l’expertise avérée de l’annonceur
  • l’utilisabilité de l’information, qui doit être adaptée au format de publication
  • l’actualité de l’information

Comment Google peut-il détecter ces pages ?

Isabelle : Si Google a accès aux statistiques, il peut se baser sur les différents indicateurs pour qualifier le contenu :

  • Indicateurs de qualité de la visite : Durée de la visite, Visiteurs nouveaux versus habituels, Fidélité : nombre de visites par visiteur
  • Indicateurs de popularité du contenu : Nombre de pages vues par visite, Pages les plus visitées, Taux de rebond
  • Indicateurs de qualité du trafic entrant : Accès direct, sites référents, Mots-clés tapés dans les moteurs de recherche, Liens cliqués dans les envois de courriels et de newsletters, Trafic issu des réseaux, forums et blogs, Nombre d'abonnements aux RSS, aux Tweets, à la newsletter, etc.
  • Relais du contenu sur les autres sites web et sur les réseaux sociaux
  • Il s'appuiera certainement sur des critères déjà pris en compte : la présence de contenu dupliqué, la suroptimisation des pages d'un point de vue référencement, le Trustrank, etc.

Google peut mesurer la lisibilité des textes, notamment sur base de l'indice Gunning Fog ou Flesh qui prend en compte les variables suivantes :

  • Proportion des mots rares dans le texte
  • Proportion des noms communs inconnus des dictionnaires dans le texte
  • Longueur moyenne de phrase
  • Proportion de mots appartenant au « Dictionnaire fondamental » de G. Gougenheim (3 500 mots de base de la langue française)
  • Proportion de conjonctions de coordination
  • Proportion d'appositions
  • Proportion de propositions participiales
  • Complexité de la construction de la phrase (sujets inversés, proportion de subordonnées, verbes à la forme passive, etc.)
  • Proportion des noms abstraits par rapport aux noms concrets, humains ou animaux
  • Proportion de mots polysémiques par rapport aux mots monosémiques

On pourrait imaginer à un certain moment que Google détermine des indicateurs comportementaux du contenu en tablant sur le « mind tracking » (basé sur le data mining). Ils lui permettraient de mesurer les interactions implicites et explicites entre l'internaute et l'article : mouvement de souris, frappe clavier, survols, sélection de texte, temps d'implication, commande d'impression, clics, doubles clics qui reflètent les niveaux d'interaction avec le contenu. Si pour un même domaine ou sous-domaine, les indicateurs comportementaux sont systématiquement dans le rouge, Google pourrait en déduire que le site offre du contenu de faible qualité.

Eve : Ca, vous êtes mieux placé que moi pour l'évaluer ;-) Je retiens ici vos 2 propositions suivantes : "Abondance de publicités y compris AdSense :-)" et "Très faible engagement des internautes avec les contenus".

Jean-Marc : Oh, ça c'est une question à laquelle vous répondrez mieux que moi. Et vous avez d'ailleurs commencé à le faire fort bien.

La taille du site (sa couverture éditoriale), par rapport à son succès, me semble un critère important. Dans ce concept de "ferme", il y a cette idée de production massive.
Je pense que la notion de popularité (quantité et qualité des liens entrants, notoriété en ligne, références,...) devrait garder un rôle central.
A travers ce genre d'annonce de nouvel algorithme, n'oublions pas non plus que Google orchestre sa communication.
Et, vous l'avez dit dans votre article, Google doit continuer de se montrer actif envers les spammeurs de tout type. C'est nécessaire à son image et à sa survie de géant.
La seule chose qui serait embêtante et critiquable, c'est que l'algorithme en question pénalise des sites web qui n'ont rien de reprochable. Mais ce n'est pas le style de la Maison. Pour rester puissant, Google doit rester pertinent.

Muriel : Les grosses fermes de contenus génèrent quotidiennement plusieurs milliers d’articles. Sur le marché anglo-américain,  Demand Media est leader du secteur, qui déclarait plus de 13 000 rédacteurs fin 2010.

Il est extrêmement difficile, évidemment, de tenir la promesse d’un contenu qualifié, actualisé, pertinent, voire même correct, dans un tel modèle de production éditoriale.

Il est vrai d’ailleurs que les contenus qu’on retrouve généralement sur ces plates-formes manquent d’objectivité, ne renvoient pas vers des ressources qualifiées ni expertes, sont simplistes à outrance, ne traitent pas le propos de manière exhaustive, n’adaptent pas le niveau du contenu à des profils définis d’utilisateurs, etc.

Mais comment Google repère-t-il ces manquements? Je n’ai pas de réponse exacte et précise à cette question. Google lui-même, déclare que leur objectif est de « réduire le ranking (classement) des site de basse qualité - sites à basse valeur ajoutée pour les utilisateurs, sites qui copient le contenu d'autres sites ou site qui ne sont juste pas très utiles». Mais aucun détail sur la mécanique.

Ce que je peux dire, c’est que Google doit pénaliser, à mon avis,

  • la suroptimisation et la surdensité des mots-clés,
  • la faible qualité et le manque de profondeur du maillage interne et externe,
  • le manque de granularité dans l’information,
  • la faible variété de formats éditoriaux : citations, exemples, encadrés, tableaux, ... marqués par des balises identifiables.

Ces pénalisations ont déjà cours depuis un précédent changement d’algorithme qui a aussi fait couler pas mal d’encre: le Google May Day. J’ai également traité cette question dans un article à l’époque, sur Webmarketing & Com.

Olivier Duffez : Merci à tous les 4, ces réponses sont très intéressantes et nourrissent le débat. J'espère que nous aurons également des commentaires de qualité ;-)

A propos de l'auteur : Olivier Duffez Olivier Duffez sur Google+ Olivier Duffez sur Twitter Olivier Duffez sur Facebook Olivier Duffez sur Pinterest Olivier Duffez sur LinkedIn

Consultant en référencement, Olivier Duffez a travaillé pour les plus grands sites (Doctissimo, FNAC, RueDuCommerce...). Il édite le site WebRankInfo qu'il a créé en 2002, devenu la + grande communauté francophone sur le référencement (270.000 membres, 1,4 million de posts). Il a également créé la société Ranking Metrics, leader des formations emarketing en France (SEO, AdWords, Analytics, réseaux sociaux).

Vous avez aimé cet article ? Partagez-le !

Vous aimez WebRankInfo ? Suivez-nous !

Si vous souhaitez publier un extrait de cet article sur votre site, assurez-vous de respecter les conditions générales d'utilisation de WebRankInfo.

Vous devriez lire aussi :

32 commentaires

  1. Valbou a dit le

    A lire l'article, WRI pourrait-être considéré comme une ferme de contenu faisant le buzz sur le thème du référencement/positionnement...

    Pour reprendre ce qui a été cité précédemment :

    Forte présence d'Adsense
    Faible variété de formats éditoriaux
    l'ergonomie
    Répétition d'une page à l'autre (plus ou moins obligatoire lors de la spécialisation d'un site sur un thème...)

    C'est un sacré challenge pour Google de différencier le contenu sans intervention humaine...

    D'ailleurs je pense que pour des cas douteux l'intervention humaine sera indispensable.

    Je pense également que seuls les mastodontes du secteur seront touchés de peur de retenir de petits site intéressant avec des mailles trop serré.

    Le web "propre" n'est pas pour demain ;)

  2. Sublime a dit le

    Faire un site juste pour savoir si Google et autre trouveront pertinent ce que nous écrivons ...Adieu le plaisir du partage...sincèrement quand je vous lis j'ai l'impression que seuls les sites fait par des "intello" pourront sortir avec les lauriers Google..
    Mais voilà on a pas tous fait philo,Pro du ref et bac à sable +++ et certains site comme celui que je gère,avec un contenu fait par des rédacteurs en herbe ou des marques qui souhaitent communiquer et bien sans PR ce fait son bonhomme de chemin...

    A vous lire on dirait que seul les gens parfaits auront le droit de citer sur le net, "zetes flippants" dans le genre ;-)

  3. frenchhoppicker a dit le

    Juste une précision pour les puristes. Il est préférable de traduire 'content farm' par ferme de contenu plutôt que ferme à contenu. Une boîte aux lettres est destinée à contenir des lettres mais une boîte de lettres en est remplie;-)

  4. Sky a dit le

    Je trouve que le sujet des fermes est d'actualités, mais comme le dit sublime et valbou... ça fais peur de vous lire là. Même votre site - wri - a plein de pub partout... N'empêche que les fermes à contenues sont des vrai sal*pe*ie.

  5. abcdelabarre a dit le

    Bonjour à tous et à toutes,

    Aux analyses pertinentes d'Isabelle Canivet, d'Eve Demange de Jean-Marc Hardy et de Muriel Vandermeulen, je rajouterai ceci :
    qui se préoccupe aujourd'hui de la véracité des contenus ? Autrement formulé, qui vérifie ses infos et comment ?

    A l'heure où les "Conseils en e-réputation" font flores sur la Toile, comment ne pas se faire "enfumer" par une masse d'infos "propagandistes" judicieusement mise en place ? Selon vous, suffit-il de "croiser quelques sources" sur le net pour "être dans le vrai" ?

    Ce qui devrait être un réflexe de Pavlov pour tous les journalistes (et c'est loin d'être le cas) semble disparaître au fur et à mesure du développement des "réseaux"...

    D'où, "à mon humble avis" la nécessité parfois de revenir aux fondamentaux : le terrain !
    Vous vous rendez compte ? Aller sur le terrain pour de vrai, regarder avec ses yeux, entendre avec ses oreilles, sentir avec son nez sans aucun "filtre numérique" forcément distordant entre vos sens et la "chose" : "c'est une Révolution" non ?

    Bien à vous tous et toutes,

    hd;)

  6. Raphyslash a dit le

    Je suis d'accord dans la théorie avec tous ces avis, mais dans la pratique je me demande si on vit dans le même monde...
    A l'heure actuelle, le meilleur rédacteur web du monde peut publier le meilleur contenu du monde mais personne ne le consultera en référencement naturel s'il ne sur-optimise pas un minimum ses contenus. Il m'arrive très souvent de tomber totalement par hasard sur des sites aux contenus très intéressants mais très très bien cachés dans les bas-fonds de google.
    Donc écrire du bon contenu, d'accord, mais si on veut être lu et consulté il faut forcément faire des liens et des textes pensés plus pour un moteur de recherche qu'un lecteur.

  7. MetLife a dit le

    @ abcdelabarre : Le filtre de chaire et d'os est déjà « distordant» (on voit et on ressent différemment selon nos origines, sans parler de l'interprétation qui s'ensuit).

    Maintenant un contenu bon ou mauvais : pourquoi Google se donne le droit de déterminer cela. En effet un mauvais contenu avec un bon référencement passera devant le bon contenu sauf si ce contenu fait autorité et encore (!). Mais tout le monde ne fait pas autorité.

    Il faut laisser à l'internaute le soin de se prendre en main et de réfléchir à ce qu'il lit...

  8. webby a dit le

    Bonjour,

    Ce débat sur les fermes de contenus est extrèmement humiliant pour ceux qui, comme moi, travaillent dans l'agrégation de contenus depuis plusieurs années sans avoir le sentiment de faire un sous-métier du web!

    C'est quand même le premier métier de Google ;-)

    J'ai la conviction que dans la jungle des contenus du web, un site agrégateur peut apporter une réponse utile à la recherche de l'internaute en facilitant l'accès à des contenus pertinents auxquels l'internaute n'aurait jamais eu accès si ce site ne l'avait pas identifié et extrait.

    Aujourd'hui le métier d'agrégateur évolue et prend toute sa légitimité en introduisant de l'intelligence dans son agrégat (mise en qualité, éditorialisation et clés de lecture facilitant la compréhension du contenu agrégé).

    C'est le nouveau métier des curateurs de contenus dont le BM reste encore malheureusement très "Google dépendant"

  9. abcdelabarre a dit le

    Re- !

    @ MetLife : "Il faut laisser à l'internaute le soin de se prendre en main et de réfléchir à ce qu'il lit..."

    Euh... On appelle cela le "libre arbitre" non ? Certains évoqueraient même un "soupçon" d'intelligence...

    Alors moi je dis qu'il faut mettre un frein à l'immobilisme intellectuel de toutes celles et ceusses qui cherchent une alternative à Google ;)

  10. Olivier Pons a dit le

    @sublime :
    En quoi ce serait un mal ? Je préfère aller manger dans un restaurant de qualité que de manger uniquement dans des fast food où tout est mal fait et à la va-vite...

    :)

    Je trouverais tout à fait normal qu'a choisir entre deux articles qui concernent le même produit, l'article le mieux écrit sorte en premier, même si le site concerné n'a pas plus de "contenu" que le premier. Ce qui n'est absolument pas le cas actuellement. Si "Le Monde" (j'éxagère pour donner une image) écrit un article mauvais sur La Lybie, il sortira très certainement avant la plupart des autres sites, même si certains sont plus exacts, plus précis, plus détaillés. Bref, tout cela est à voir et à étudier.

    Mais je serais effectivement très content si google supprimer ces grosses fermes à contenu, qui, au final, n'apportent rien à l'utilisateur final, et qui, dans son parcours, exploite les pauvres petites mains (cf youtube et les vidéos sur les fermes à contenu), tout cela pour finir dans une seul et unique poche.

  11. Quentine a dit le

    Il y a tout simplement trop de sites Web. Combien en existe-t-il pour parler référencement ? Est-ce nécessaire d'en avoir autant ?

    Les avis donnés dans l'article sont intéressants. Attention toutefois à ne pas orienter les réflexions par rapport à ce que veut Google (ne pas définir la qualité en fonction de ce qui plait à Google).

    Quant à la qualité elle-même, elle est en réalité secondaire. Regarder les parts de marché des chaines de télévisions. Arte ne fait même pas 1%. Si la qualité, c'est des «trucs d'intello» comme dit plus haut, alors ce n'est pas ce que cherche la majorité des individus. Idem, qu'est-ce qui buzz sur la toile ? Quelles sont les vidéos les plus vues sur Youtube ? Des conférences ou des vidéos de chats ?

    Pour faire un site qui rapporte du pognon, il faut faire ce que veulent les gens. Et ce qu'ils veulent, c'est ce que l'on veut tous après une journée de boulot.

    Quant aux commentaires, aux réseaux sociaux, etc... un contenu ayant une réelle qualité ne devrait pas en avoir. D'ailleurs j'ai arrêté les commentaires, car c'est trop de temps et trop d'argent pour souvent un intérêt relatif, et souvent bien en dessous de la qualité de l'article lui-même. Maintenant, si l'objectif du site est purement financier, alors il faut mettre des commentaires et faire buzzer sur les réseaux sociaux.

    En plus nous avons une chance énorme en France, puisque les français ont des avis sur tout et adore le donner. Un sujet un peu polémique rédigé en max. 500 mots, un espace de commentaires bien réalisé, de la pub, et l'argent rentre.

    Les articles de qualité ne paient pas sur le Web, car la qualité ne déchaine que rarement la polémique (et donc des commentaires), et comme il n'y a pas lieu à commenter, il n'y a pas lieu de buzzer.

    C'est l'économie du Web par la pub qui veut ça.

  12. Sublime a dit le

    @Olivier Pons mais moi aussi pour le resto je partage ton avis ;-)

    Juste que tous ces gens qui veulent faire du net un lieu top du top de la crème oublie que tout le monde ne possède pas le même niveau d'excellence et d'exigence...
    Il y en a pour qui FLunch est la sortie de la semaine et cela leur plait réellement, qui nous autorise à les juger et surtout à leur dire ah non là c'est pas bon il faut aller là bas...
    L'article du Monde pour la Lybie ( pour continuer ton exemple) ne te semblera pas pertinent et pourtant pour d'autres oui...Tout est une question de point de vue et le tri de Google sera écrit et programmer par un point de vue humain...
    Le libre arbitre ...comme dit plus haut ;-)
    Comme dit Quentine "Pour faire un site qui rapporte du pognon, il faut faire ce que veulent les gens. Et ce qu'ils veulent, c'est ce que l'on veut tous après une journée de boulot."

    Bon pour le super resto je bloque quel jour , ;-)

  13. foxtrot a dit le

    De toute façon, les "gros" ont compris que le web est désormais une "machine à fric". Ce qui n'était pas le cas auparavant. Donc pour les "petits" bonjour la galère !

  14. bibiyanki a dit le

    @Sublime
    Il y en a pour qui FLunch est la sortie de la semaine et cela leur plait réellement, qui nous autorise à les juger et surtout à leur dire ah non là c'est pas bon il faut aller là bas...

    tu aurais pu utiliser Macdo (meilleur référencement que flunch LOL) de plus, j'adore flunch et je conseil à tous pour manger des bons légumes à volonté XD

  15. Sublime a dit le

    @bibiyanki arf encore un truc qui ce la joue "politiquement correct" zut alors comme Mac DO il la joue bio et responsable ...j'hésite entre Quick (mortel) ou KFC ... ;-)
    @foxtrot c'est pas faux..Et comme les gros en veulent toujours plus ils vont pousser à faire normaliser le bouzin pour monopoliser le web ...

  16. Olivier Pons a dit le

    Bah Flunch, disons que question goût... je préfèrerai largement ne pas avoir de légumes à volonté, mais au moins que ce que j'ai dans mon assiette soit assez bon pour que je le mange, ma femme aussi et (surtout) ma fille aussi !

    Mais effectivement, la "qualité" est vraiment quelque chose de très subjectif. Pour moi la qualité c'est la précision, c'est l'opposé du mensonge et du manque de précision (je parle pour ces messieurs-dames les commerciaux qui s'y retrouveront sûrement =D).

    En tous les cas Google semble se rapprocher de ma définition de la qualité, ce que j'apprécie :)

  17. Sublime a dit le

    @Olivier Je suis sur le secteur féminin et ce que les auteurs mettent en avant la qualité , le nec plus ultra dans ce secteur c'est soit les artistiques qui sont capable de faire un texte élaboré et d'autres qui vont en deux lignes donner leurs impressions, parler du dernier rhume de bébé...
    Alors je ne sais pas comment et de quel droit Google pourra décider de ce qui est bon pour l'internaute ou non...
    Tu nommais la Lybie...Et bien peut être que nous allons vers une dictature numérique purement et simplement avec ce type de projet.

    ...Et puis ne cache pas tes légumes dans ton assiette ;-)

  18. Olivier Pons a dit le

    @Sublime :)
    Ce qui me surprend toujours c'est que je lis "de quel droit google", "mais pourquoi s'autorise-t-il", etc.

    Google c'est avant tout une entreprise, qui fait ce qu'elle veut. Si elle décide de supprimer n'importe quel site quand elle veut, comme elle veut, personne ne peut l'en empêcher. Je comprends que ça fasse râler, mais, si dans ton secteur féminin, les critiques sont bonnes, les commentaires éloquents et soignés, il n'y a aucune raison pour que le site ne progresse pas.
    Tiens, un exemple que j'adore (...) : il n'y a que des images : http://www.americaisretarded.com : vu presque un million de personnes par mois (c'est déjà pas mal je trouve).

    Comme quoi google sait aussi recenser d'une autre façon certains sites.

    Je pense qu'à partir du moment où on fait son travail bien et "proprement", on réussira à tirer son épingle du jeu !

  19. AdDesign a dit le

    C'est vraiment ça ! On a tous des points de vues totalement différents qui ne devraient pas être indifférents aux yeux de ceux qui sont là pour mieux nous servir au final. A force de juger de ce qui est bon ou mauvais pour les uns et les autres avec des convictions "louables", on peut vite tomber dans le déraisonnement, et se prendre pour "un sage", celui qui à la réponse. Google était un acteur, collaborateur, actif, au services de tous..., Par le "pseudo monopole" il en deviendrait l'incontournable roi ! A qui la faute ? Peut-on faire sans ? Je pense que oui ! Google devrait plus écouter, nul n'est éternel.

  20. Sublime a dit le

    @ Olivier tu as raison c'est une société qui fait ce qui lui semble le mieux pour son expansion, le "de quel droit" c'est surement ce qui nous vient à l'esprit car ce moteur a une véritable influence...sur l'expansion des autres acteurs du web ;-)

    J'aime bien "Google devrait plus écouter, nul n'est éternel." d'AdDesign

    Alors à nous de prendre le droit de mieux nous "intégrer" dans les autres outils de recherches pour ne plus être sous la suprématie d'un "monopole"

    PS: 1 million pffutt une misère lol
    PS: 2 ah quand même 20,746 personnes aiment sur FB...la qualité c'est toujours subjectif ;-)

  21. GP a dit le

    Intelligentes réflexions! On ne peut être que d'accord avec vos panellistes. Dans le mil!

  22. JCGoutelle a dit le

    Bonjour,
    Je suis vraiment étonné que dans cette discussion, on ne parle quasiment pas de la finalité des sites. Entre un site qui propose de l'information, un autre des services ou des produits, la qualité et la pertinence du contenu ne me paraissent pas comparables.

  23. AdDesign a dit le

    Peut importe la finalité, le contenu est jugé brut. Ces critères n'ont que peu d'incidences sur les résultats des moteurs de recherche. On peut débattre sur le sujet mais ce n'est pas "directement" le thème abordé. Il est vrai toutefois qu'une option sur les champs de recherches dans ce sens serait un plus pour les internautes.
    Quelqu'un sait si, avant d'appliquer le nouveau mode référencement, google souhaite rendre plus transparente sa nouvelle stratégie, voir débattre avec les acteurs du web ? Je serais curieux dans savoir plus sur leur état d'esprit actuel.

  24. Olivier Pons a dit le

    Oui mais on entre dans un autre débat : la simplicité.
    Google est aussi fort et toujours premier grâce à sa simplicité.
    Google est ultra simple.
    Vous avez remarqué combien d'informations totalement inutiles (ou tout du moins qui ne nous intéressent pas), nous bombardent les autres moteurs de recherche ?

    Si je fais le total, sur yahoo, il y a plus des 3/4 de la page qui ne me concernent pas / et / ou / ne m'intéressent pas.

    Donc, fort de ce constat, je pense qu'une grande majorité de non informaticiens ne voudraient pas voir de plus en plus d'options ajoutées à un moteur qui est simple, et c'est justement cette simplicité qui fait sa force.

  25. Muriel Vandermeulen a dit le

    Bonjour à tous,

    heureuse de voir que ce sujet suscite un débat aussi animé et riche. Je me permets donc de réagir à certaines contributions:

    @ sublime : J'espère que des annonceurs tels que le Ministère de l'Intérieur ou de la Santé, votre mairie, plus modestement, ou encore l'Institut national de la Propriété intellectuelle, mais aussi Nivéa, La Redoute, ou encore Prémaman, Leclerc ne se contentent pas du plaisir de partager du contenu. Mais qu'ils donnent aux citoyens, aux consommateurs, aux internautes de l'information utile, pertinente et correcte. A vous lire donc, j'espère qu'ils ont dans leurs équipes de communicants Web des "intello" (sic).

    @frenchhoppicker - parfaitement d'accord. C'est aussi le terme que j'utilise sur mon blog, d'ailleurs.

    @ abcdelabarre : j'évoque la question de la correction du contenu. En effet, dans notre outil d'audit éditorial, nous mesurons aussi l'indice de cohérence et de justesse des contenus publiés.

    @ Raphyslash : Je ne suis pas d'accord avec vous. Il convient, au contraire, et la stratégie de Google le démontre, d'allier la qualité éditoriale à la trouvabilité. Internet est et reste un média créé par l'homme et pour l'homme. Comme tous les médias, son objectif est d'informer, d'éduquer et de divertir. Il ne doit pas, non plus, assurer à lui seul la notoriété et la communication de la marque. En général, une bonne stratégie de communication repose sur un média mix, dont les formats Web ne sont que partie. Et il ne s'agit pas de "tomber au hasard" sur un site via Google pour faire du chiffre ou justifier sa présence en ligne. Si je veux des informations sur les risques de contamination nucléaire en France suite à la situation japonaise, fort est à parier qu'une grande partie des internautes se rendront directement sur des sites dédiés ou qualifiés tels que des sites de ministères, d'agences françaises et internationales spécialisées, etc. plutôt que d'essayer, au petit bonheur la chance de trouver de l'info via Google.

    @ Metlife : si Google se donne "le droit" de déterminer ce qu'est un bon ou un mauvais contenu, c'est certainement - entre autres - pour assurer la qualité pérenne de son propre service d'information. N'oublions pas que les moteurs de recherche sont, eux aussi, garants de respecter les standards, conventions et bonnes pratiques du Web. Lorsque vous analysez les règles d'écriture optimisée pour le référencement éditorial, par exemple, vous constatez (avec bonheur si vous êtes un évangéliste d'un Web de qualité) que ces règles imposées par Google, comme vous dites, épousent par ailleurs parfaitement les comportements des internautes en quête d'information pertinente et qualifiée, qui balaient les pages et sont attirés par les messages saillants, les boutons d'action, les liens croisés, etc. Google est un lecteur attentif, rigoureux et exigeant, comme le sont les lecteurs humains qui utilisent Internet dans un but précis (et ils sont nombreux).

    @ webby : Je travaille aussi dans les contenus Web depuis dix ans, dont l'agrégation, et je ne pense pas que mes pairs et moi avons eu aucune intention d'humilier nos autres pairs. Du reste, agrégation n'est pas usinage, nécessairement (il suffit de lire l'intervention de Jean-Marc). Je ne vois pas en quoi plaider pour la qualité, la pertinente et l'utilité des contenus en ligne constitue une humiliation.
    A nouveau, Internet est un média. Si on peut se plaindre d'une baisse de qualité des émissions télévisées, pourquoi ne pourrait-on vouloir prévenir un tel avènement sur Internet?
    Vous le dites vous-mêmes : les créateurs de contenu sont des curateurs. Il n'y a rien d'humiliant là-dedans.

  26. Sublime a dit le

    @ Muriel certains annonceurs paient les bloggeuses pour mieux faire passer leur message c'est bien que le style "intellos" qui vous fait grincer ;-) n'est pas à la porter de tous..Perso le ministère de l'intérieur commençant à avoir un débat très populaire ces derniers temps prouve que mon idée de simplicité, c'est pas si con...ok celle là était facile ;-)
    Le ministère de la santé ah oui l'échec de la campagne de vaccination... et des médocs qui tuent...
    Leclerc, tu parles Germaine c'est pourri dans mon quartier au lieu de mettre de la pub à la tv ils feraient mieux de remettre du frais en rayon.
    Nivéa à oui là c'est sacré on touche pas ;-)
    ....
    Muriel voilà ce que le quidam dans mon genre, c'est à dire sans votre culture du verbe, retient de vos références...(sur un air d'envolée à la Coffe)

    Ne vous vexez, mettez vous à mon niveau, celui d'une provinciale qui n'a pas le culte du "tout ce passe à Paris " et dans les hautes sphères...
    bref vous avez étaler vos références je suis certaine que votre égo en est flatté ( bien que cela ne soit pas ce qui transpire dans vos écrits) mais perso je vous ai mis plus haut ce que tout un chacun peu retenir de ces références...

    Pardonnez moi de ne pas avoir votre grandiloquence (chouette j'ai enfin pu le placer celui là) il y a peut être, allez savoir, un peu d'envie de pouvoir emberlificoter, un texte médiocre pour lui donner une essence supérieure, d'avoir une analyse, certainement pertinente mais en même temps c'est pas mon univers et pour tout vous dire et en niçois Iu men batti ;-) Ces grands discours qui à force deviennent vides de sens à force de vouloir en démontrer que le qualitatif est l'avenir de l'humain..
    Vous parliez de "prévenir" l'abrutissement des masses...Dites moi combien de parts de marché pour Arte, enfin quand ils ne passent pas des films catégories X.
    C'est gentil de vouloir nous éduquer mais bon on est encore, un tout petit peu, en démocratie ;-)
    Entendez bien Muriel que je n'ai rien ni contre vous, ni contre le travail que vous pouvez fournir, qui est assurément d'une grande qualité pour être au service de si grands noms, mais laissez aussi aux petites gens leur espace sur le net ;-)

  27. Olivier Pons a dit le

    @Muriel : je ne suis absolument pas d'accord sur la qualité d'analyse de google. J'espère qu'ils vont dans ton sens et qu'ils "apprécient" et font monter des sites de bonne qualité qui respectent les standards, que d'autres sites écrits à l'arrache sous Word (puis Exporter => page Internet (>_<) ). Mais c'était encore complètement faux il y a quelques années (je sais bien de quoi je parle, car une partie de mon travail est de "nettoyer", justement, des sites qui sortaient numéro un sur certains mots clés, contre tout attente, et surtout contre toute logique).

    @Sublime : encore une fois tu semble avoir raison : la masse veut du simple, voire simpliste ? Qu'on lui en donne, tant que ça rapporte. Laissons les minorités dans leur espace minoritaire. Il n'y a rien ni de méchant, ni de sarcastique, ni d'ironique : je pense juste que c'est le constat que doivent faire les hommes d'affaire chez google. Et je pense aussi que c'est bien triste, car beaucoup de gens se plaisent là où ils sont et n'ont aucune envie de chercher plus loin. Il faut faire avec et donc dans se cadre, se référer à ma première phrase. Et je pense même que Muriel aura beau écrire tant qu'elle voudra des articles de qualité, tant qu'ils sont de "trop bonne" qualité, ils n'atteindront malheureusement pas la plus grosse partie de la population, qui veut du sensationnel sans se poser de question (genre aux infos on nous montre en boucle que les immeubles on vacillé mais ne se sont pas écroulé... alors qu'ils sont faits pour ça ! Quels bande de *** ! Mais ça fait sensation, ça marche, c'est limite la chose la plus impressionnante qu'on retient de la catastrophe).

  28. Infosimmo a dit le

    Toujours la même chose, la masse vs le bien pensant... et le bien pensant se repaît en cachette de la masse...

    Et puis on peut ergoter encore longtemps, Google est le seul à posséder sa techno de la pertinence, donc c'est lui qui fait la pluie et le beau temps...

  29. LMNP a dit le

    C'est vrai que depuis sa sortie, cette nouvelle algorythme du grand G ne cesse de créer une onde plus que magnétique. Mais le plus drôle c'est que les sites comparateurs ou du genre sont surtout nés grâce à G donc… A méditer.

  30. le comptoir web a dit le

    Bientôt la rédaction web ne sera plus une discipline ou un métier mais un art et une philosophie de vie au rythme auquel nous allons...!
    Tellement de choses à dire. Prendre parti pour l'internaute, pour le navigateur, pour les deux, sur un domaine traité connu, ou inconnu, avec un style fluide et agréable ou robotique et haché par un bûcheron canadien bref....
    Ce métier est à l'image de la société actuelle, de la mondialisation, (cf outsourcing) etc...^^

  31. inf0mag a dit le

    Malgré que les mesures mathématiques n'existent pas pour distinguer les contenus originaux et pertinents, Google ne fait qu'utiliser des algo et des outils automatiques.
    L'autre fois, je suis tombée sur un site qui est 100% plagié, et devinez quoi : il a un PR = 2 ou 3 !!
    Il est où le contrôle du duplicate content là ?!!

  32. Olivier Duffez a dit le

    @ inf0mag : le PR n'a absolument aucun rapport avec le contenu de la page, c'est donc normal comme observation

Postez un commentaire !

Les champs marqués du signe * sont obligatoires. L'adresse email ne sera pas affichée.

En postant un commentaire, vous acceptez les CGU du site WebRankInfo.

Cherchez dans tous les dossiers

Cherchez par mots-clés dans ~2000 articles :

Formation référencement et webmarketing

Venez chez Ranking Metrics vous former au référencement, à Google Analytics et aux réseaux sociaux ! Plus de 4000 entreprises sont déjà venues (financement possible par OPCA, DIF...).

Préparés et animés par Olivier Duffez (WebRankInfo) et Fabien Faceries (AgentWebRanking), 2 professionnels reconnus dans le domaine, nos modules sur le référencement naturel sont très complets tout en laissant une grande place à l'interactivité pour répondre à toutes les questions des participants.

Pour connaître le plan détaillé de chaque module, le prix, les dates et les lieux, consultez le site de Ranking Metrics (organisme de formation).

Hébergement web

Hébergement web mutualisé et dédié

Pour un bon référencement, il faut un bon hébergeur. Testez Sivit by Nerim, l'hébergeur choisi par Olivier Duffez pour son site WebRankInfo.

A partir de 3€ HT/mois.