Rédaction web, qualité du contenu et fermes à contenus

WRInaute impliqué
Est-ce que Google a trouvé ou va trouver une méthode purement automatique et algorithmique pour réduire la visibilité des fermes de contenu ? Difficile à dire. Ca me paraîtrait plus sain de mettre en place un système d'alerte, basé sur des analyses comportementales et des reportings d'utilisateurs, qui déclenchent des interventions humaines. Mais bon, je crois que la philosophie de Google, c'est de limiter l'intervention humaine au minimum.
 
WRInaute accro
nza2k a dit:
Ca me paraîtrait plus sain de mettre en place un système d'alerte, basé sur des analyses comportementales et des reportings d'utilisateurs.
Sur des sites a faible trafic, il suffirait alors de 3 ou 4 personnes motivées pour dégommer un site ! Trop aléatoire et dangereux :roll:

ET dans l'autre sens, une ferme de contenus, dotée d'une armada de milliers de redacteurs à travers le monde n'aura aucun mal a overcliquer sur "j'adore ce site" :wink:

Bref c'est pas la bonne approche ... (cela irait dans le sens contraire de celui recherché : les gros seraient plus forts, les petits plus faibles ...)

Sinon je ne sais pas si c'est philosophique de la part de google. Je pense que c'est surtout economique : Le teraflop coute moins cher que le neurone !
 
WRInaute passionné
Avez-vous vu des fermes de contenus sanctionnées par Google depuis leur annonce ? car quand je regarde les courbes d'Alexa pour les sites de demandmedia, cela progresse encore.
 
WRInaute impliqué
Zecat a dit:
Sur des sites a faible trafic, il suffirait alors de 3 ou 4 personnes motivées pour dégommer un site ! Trop aléatoire et dangereux :roll:

ET dans l'autre sens, une ferme de contenus, dotée d'une armada de milliers de redacteurs à travers le monde n'aura aucun mal a overcliquer sur "j'adore ce site" :wink:

Tout à fait ! Ce que je voulais dire, c'est justement que la technique ne servirait qu'à alerter des contrôleurs humains qui feraient une analyse "intelligente" au cas par cas. Sinon, le "tout technique" risque de shooter les mauvaises cibles. Mais comme tu le dis si bien, le neurone coûte cher. Est-ce que Google va consentir à donner autant de poids aux décisions humaines dans ses SERPS ?
 
Nouveau WRInaute
Je pense que le meilleur moyen de lutter contre ce genre de sites est tout simplement d'informer les usager du web, car ces sites sont très facilement repérables.
 
WRInaute accro
Le neurone n'est pas la solution parce qu'il serait facile de splitter les gros sites en milliers de mini-sites regroupés en coopératives de mini-fermes de contenus.
Il y a un risque de procès aussi. Chaque site pouvant affirmer qu'il propose du contenu de qualité contrairement au voisin.
 
Nouveau WRInaute
Bonjour! Google considère déjà les fermes de contenus comme des nuisances pour l'authenticité des contenus. Cependant sanctionner ces fermes serait économiquement désavantageux pour le moteur de recherche, et les garder portera atteinte à l'authenticité et l'unicité des contenus écrits. Sacré dilèmme...
 
WRInaute accro
Google a déclenché son nouvel algorithme visant spécialement les sites à contenu de très faible qualité
Fichtre, Google serait donc capable de juger de la "qualité" d'un contenu ? de manière algorithmique qui plus est ?

Demandez à des "rédacteurs web" leur définition d'un texte de "mauvaise qualité", ils l'exprimeront naturellement des la base de critères rédactionnels : "niveau de langage faible, fautes d'orthographe, beaucoup de répétitions, mise en page non adaptée à la lecture en ligne, absence de ligne éditoriale" ... quand ce ne sont pas des critères rédactionnels, ils sont tellement subjectifs que je doute qu'ils puissent être modélisés sous quelques formes algorithmiques que ce soit !

Bref à vous lire, un texte de qualité ne pourra bientôt plus être écrit que par des spécialistes de la rédaction web ! et il suffira de faire réécrire un texte "creux" voire complètement faux (dans les domaines de la science ou de la technologie par exemple) pour en faire un texte de qualité suffisante aux yeux de Google pour être apparaitre dans les résultats ...

Redescendez parmi les communs des mortels, Google (le SERP) tout divin qu'il soit pourra éventuellement juger de la qualité d'un texte sur la forme, en l'état actuel de la technologie, je doute qu'il puisse juger du fond ! Et jusqu'à preuve du contraire c'est d'abord et avant tout le fond qui fait l'intérêt ou non d'un texte, la forme n'est que "du bonheur en plus" ...

Tiens petit exercice pour nos experts de la rédaction web, que pensez-vous de la "qualité" de ce texte :

Mesdames, Messieurs,

l'acuité des problèmes de la vie quotidienne oblige à la prise en compte encore plus effective d'un processus allant vers plus d'égalité. La conjoncture actuelle doit prendre en compte les préoccupations de la population de base dans l'élaboration d'une restructuration dans laquelle chacun pourra enfin retrouver sa dignité.

Et ce n'est certainement pas vous, mes chers compatriotes, qui me contredirez si je vous dis que le particularisme dû à notre histoire unique doit nous amener au choix réellement impératif d'un projet porteur de véritables espoirs, notamment pour les plus démunis. Et ce n'est certainement pas vous, mes chers compatriotes, qui me contredirez si je vous dis que l'aspiration plus que légitime de chacun au progrès social doit s'intégrer à la finalisation globale d'une restructuration dans laquelle chacun pourra enfin retrouver sa dignité.

Je reste fondamentalement persuadé que l'effort prioritaire en faveur du statut précaire des exclus conforte mon désir incontestable d'aller dans le sens d'un processus allant vers plus d'égalité.
 
WRInaute accro
Pas assez de répétitions de mots-clefs et pas de mots à plus de 300 requêtes/mois. Tu vas avoir du mal à mettre une pub là-dessus.
 
Olivier Duffez (admin)
Membre du personnel
Il y a forcément des éléments constitutifs de la qualité rédactionnelle d'un texte qui peuvent être mesurés par un algo, ça ne me choque pas tant que ça. Est-ce que Google les utilise vraiment, difficile à prouver !
Notez que ça peut être aussi utilisé de façon indirecte, par le comportement des utilisateurs face au texte. Et là, le fond et la forme peuvent avoir de l'impact.
 
WRInaute accro
WebRankInfo a dit:
Il y a forcément des éléments constitutifs de la qualité rédactionnelle d'un texte qui peuvent être mesurés par un algo ...
Certes, and so what ? Il faudra m'expliquer comment de simples "éléments de qualité rédactionnelles" pourraient bien permettre de répondre à l'objectf revandiqué pour cet update :
At the same time, it [this update] will provide better rankings for high-quality sites—sites with original content and information such as research, in-depth reports, thoughtful analysis and so on.
http://googleblog.blogspot.com/2011/02/finding-more-high-quality-sites-in.html

WebRankInfo a dit:
Est-ce que Google les utilise vraiment, difficile à prouver !
Sans doute à la lecture des dégâts collatéraux déjà signalés, il faut espérer que ce n'est pas sur des critères purement rédactionnels car nous ne retrouverions très vite avec un web expurgé de toutes publications scientifiques, de tous catalogues techniques, voire même de sites d'e-commerces !

WebRankInfo a dit:
Notez que ça peut être aussi utilisé de façon indirecte, par le comportement des utilisateurs face au texte. Et là, le fond et la forme peuvent avoir de l'impact.
Oui je crois cette piste déjà plus sérieuse, et dans la tendance Google actuelle ...
 
WRInaute accro
fredfan a dit:
Pas assez de répétitions de mots-clefs et pas de mots à plus de 300 requêtes/mois. Tu vas avoir du mal à mettre une pub là-dessus.
certes, rassures toi, je ne suis pas l'auteure de ce texte, pour lequel je n'ai aucune prétention ... il a en fait été automatiquement généré par ce "générateur de langue de bois" : http://www.presidentielle-2007.net/generateur-de-langue-de-bois.php

pour la petite histoire, cet outil a été développé sur la base d'un cours de l'ENA (l'École Nationale d'Administration), c'est tout dire ... :mrgreen:
 
Nouveau WRInaute
Bonjour,

WebRankInfo a écrit:Notez que ça peut être aussi utilisé de façon indirecte, par le comportement des utilisateurs face au texte. Et là, le fond et la forme peuvent avoir de l'impact.
Oui je crois cette piste déjà plus sérieuse, et dans la tendance Google actuelle ...

Je suis du même avis. Temps passé sur la page, taux de rebond, ...
Les commentaires ont eux aussi leur importance, qui si donnant lieu à des ajouts réguliers de contenu (réactions des internautes) peu laisser supposer que le sujet n'est pas inintéressant, en poussant avec une analyse par mot clé ("bravo", "intéressant", "merci" ou plutôt des "faux", "pas d'accord", ...) pour tenter voir si ceux-ci sont positifs ou non.
Relayages sur Twitter & Facebook.
Dès lors qu'un contenu est relayé, que ce soit pour des critiques positives ou négatives il y a débat, donc pertinence pour les résultats de recherche je suppose.

Le relayage de l'info ne se suffit pas à lui-même. Si le taux de rebond est anormalement fort et le temps passé faible ils pourront ignorer certaines pages bien qu'elles soient pointée ci et là. A défaut l'algo peut dans de pareils cas détecter en auto des situations litigieuses et demander un soutien "humain" pour trancher.
De même que l'intervention humaine sera sans doute plus systématique pour les sites jugés importants et/ou à risque (procès).


Edit :
Pour en revenir au positionnement, GG à revu mes PR cette nuit tous domaines confondus. Le bilan est pour moi très positif. +1 à +3 un peu partout en PageRank. Pour ce qui est des retombées sur le trafic c'est évidemment trop tôt pour en juger.
Je précise que mes articles sont assez conséquents et uniques, avec commentaires réguliers.
Ceux-ci sont sous CC by-nc-sa et donc repris dans leur intégralité sur au moins un site qui lui n'est pas pour autant pénalisé. Le site en question est passé PR6 (+1) alors qu'il se contente de copier/coller des contenus libres comme chez moi.
 
Discussions similaires
Haut