Google n'aime pas les fermes de contenus

WRInaute accro
Les "fermes de contenus" dans la ligne de mire de Google. Sur son blog, le moteur de recherche s'en prend notamment à ces sites en plein essor actuellement. Le moteur indique que deux changements ont été apportés à son algorithme en 2010 afin de limiter la présence de ces sites dans ses pages de résultats. D'autres actions pourraient être prises, laisse entendre Google, sans préciser lesquelles.
Via
Source
 
WRInaute accro
Du contenu en quantité écrit par des gens qui n'y connaissent rien parce qu'un grand nombre de visiteurs a demandé un article à ce sujet :oops: ?
 
WRInaute accro
fredfan a dit:
Du contenu en quantité écrit par des gens qui n'y connaissent rien parce qu'un grand nombre de visiteurs a demandé un article à ce sujet :oops: ?

les fermes de contenus, c'est pas plutôt répéter dans 50 fiches différentes la même chose ?
 
WRInaute accro
finstreet a dit:
fredfan a dit:
Du contenu en quantité écrit par des gens qui n'y connaissent rien parce qu'un grand nombre de visiteurs a demandé un article à ce sujet :oops: ?

les fermes de contenus, c'est pas plutôt répéter dans 50 fiches différentes la même chose ?
je dirais un mélange des 2.
Mais bon, comme on ne peut pas donner des noms de sites qui pratiquent ça, ce n'est donc pas évident de le décrire de façon théorique :wink:
 
Nouveau WRInaute
Cela semble viser un type particulier de business model, un wikipedia payé mais centré sur les pages les plus rentables du web, d'où les vives réactions de ceux qui vivent de cette partie du gâteau. Comme il ne s'agit pas de contenu pourri, mais simplement bâclé, ce sera difficile pour les copains de Matt Cutts de trier le bon du mauvais.
 
WRInaute occasionnel
je pense plus que ca s'adresse au LFE... en ce moment ils fleurissent a donf et pollue
principe reprendre du texte le mélanger et le poser sur un blog...
certains message du forum wri par exemple se retrouve comme ca tout mélangé qui veut absolument rien dire...
 
WRInaute impliqué
n'y a t-il pas un risque pour les forum d'être considérés comme ferme de contenu?
par exemple moi tous les jours des membres psotent sur mon forum des messages qui ne sont pas forcément super développés.
 
WRInaute accro
Le problème de Google c'est qu'il confond citation et DC ! Citer un auteur, un article, une définition, ou encore le synopsis d'un film (n'est ce pas fandecine ? :wink: ), ce n'est pas (forcement) du spam de contenu ... :wink:

En effet lorsque je cite Google :

Duplicate content generally refers to substantive blocks of content within or across domains that either completely match other content or are appreciably similar
Je le fais pour citer et non pour spammer ! Je pense que Google en a pris conscience d'où sans doute l'abandon des pénalités, peut être faudrait il inventer une balise "citation" (pourquoi pas <quote></quote> :roll: ) pour encadrer le texte que l'on souhaite ne pas être pris en compte par les bots. Les choses seraient bien plus claires ...
 
WRInaute accro
La balise citation existe... on en a même deux au choix, "blockquote" et "cite"

Ensuite je pense que tout reste une question de proportion. Si la "citation" que tu fais est effectivement une citation, (blabla habituel sur la faible proportion au sein d'un texte original) je suis certaine que ton article ne sera pas pénalisé.

De la même façon "citer" un synopsis, ce n'est pas le reprendre intégralement comme unique contenu (ou unique avec d'autres contenus tout aussi peu originaux), et là oui la "pénalisation" peut être justifiée
 
WRInaute accro
La balise blockquote est censée servit à ça, mais je n'ai pas l'impression que ça ait un effet. Les nouvelles balises html 5 vont peut-être affiner la lecture des contenus. Je ne trouve pas que "ne pas prendre en compte" soit la bonne solution. Il vaudrait mieux tenir compte que c'est une citation, éventuellement lire s'il y a un lien vers la source, et si le contenu autour est pertinent.
 
WRInaute accro
Marie-Aude a dit:
La balise citation existe... on en a même deux au choix, "blockquote" et "cite"
certes, mais ce n'est qu'une balise de forme, elle ne s'applique pas à la problématique posée (le DC) ...

Marie-Aude a dit:
Ensuite je pense que tout reste une question de proportion. Si la "citation" que tu fais est effectivement une citation, (blabla habituel sur la faible proportion au sein d'un texte original) je suis certaine que ton article ne sera pas pénalisé.
Allons donc ... une sorte de densité de DC ???

Marie-Aude a dit:
De la même façon "citer" un synopsis, ce n'est pas le reprendre intégralement comme unique contenu (ou unique avec d'autres contenus tout aussi peu originaux), et là oui la "pénalisation" peut être justifiée
ben voyons, il y aurais donc une taille "idéale" pour la citation (définie par Google ?) ... un synopsis de 9 lignes s'est bon, 10 lignes ça l'est plus ?

Si Google ne sait pas se dépatouiller des citations qu'il mette à disposition une VRAI balise d'exclusion de texte (comme il l'a fait pour les liens avec le nofollow) sans avoir à exclure toute la page ... :wink:

Demande aux développeurs de site e-commerce les astuces auxquelles ils sont réduit pour éviter le DC local (et même global) ... :wink:
 
WRInaute accro
Cendrillon a dit:
Si Google ne sait pas se dépatouiller des citations qu'il mette à disposition une VRAI balise d'exclusion de texte (comme il l'a fait pour les liens avec le nofollow) sans avoir à exclure toute la page ... :wink:
Hello,

Le problème c'est que même cet attribut a des zones d'ombre, vu que cela n'empêche pas de "voir" les liens, alors je n'ose imaginer ce que donnerait cette balise d'exclusion :?
 
WRInaute accro
dd32 a dit:
Le problème c'est que même cet attribut a des zones d'ombre, vu que cela n'empêche pas de "voir" les liens, alors je n'ose imaginer ce que donnerait cette balise d'exclusion :?
Hello dd32

Désolée mais je n'ai pas compris ce que tu voulais dire par " vu que cela n'empêche pas de "voir" les liens"
 
WRInaute accro
Cendrillon a dit:
dd32 a dit:
Le problème c'est que même cet attribut a des zones d'ombre, vu que cela n'empêche pas de "voir" les liens, alors je n'ose imaginer ce que donnerait cette balise d'exclusion :?
Hello dd32

Désolée mais je n'ai pas compris ce que tu voulais dire par " vu que cela n'empêche pas de "voir" les liens"
Les pages liées via un nofollow sont quand même crawlées, même si elles ne sont pas affichées dans les pages indexées d'un site: elles sont souvent parcourues quoi qu'il en soit. Ce que le moteur en fait, lui seul le sait...
 
WRInaute accro
Cendrillon a dit:
certes, mais ce n'est qu'une balise de forme, elle ne s'applique pas à la problématique posée (le DC) ...
Excuses moi, ce ne sont pas des balises de "forme" (elles n'existent d'ailleurs pas dans le xhtml ^^), mais des balises sémantiques.

CITE: Contains a citation or a reference to other sources.
[...]These two elements designate quoted text. BLOCKQUOTE is for long quotations (block-level content) and Q is intended for short quotations (inline content) that don't require paragraph breaks.

J'ignorais d'ailleurs l'existence de Q :D

Cendrillon a dit:
Allons donc ... une sorte de densité de DC ???
[...]
ben voyons, il y aurais donc une taille "idéale" pour la citation (définie par Google ?) ... un synopsis de 9 lignes s'est bon, 10 lignes ça l'est plus ?
Je ne vois pas ce que cela a de stupide :D Chaque annuairiste aujourd'hui définit la "part" de DC qu'il accepte (le nombre de mots à la suite se retrouvant sur d'autres site) qu'il accepte, c'est exactement le même concept.
Quand à la taille idéale, je n'ai pas parlé de ça, libre à toi de déformer... j'ai parler de DC repris intégralement, au milieu d'autre DC. Oui de "densité".

Cendrillon a dit:
Si Google ne sait pas se dépatouiller des citations qu'il mette à disposition une VRAI balise d'exclusion de texte (comme il l'a fait pour les liens avec le nofollow) sans avoir à exclure toute la page ... :wink:

Sur quoi te bases tu pour affirmer que Google ignore leur sémantique ?

Cendrillon a dit:
Demande aux développeurs de site e-commerce les astuces auxquelles ils sont réduit pour éviter le DC local (et même global) ... :wink:

ça n'a rien à voir, et tu le sais très bien. La plupart des cms d'e commerce sont des usines à DC, entre les différentes présentations d'un même article / famille d'articles, les variantes, voir pour certains comme Prestashop, les créations d'urls multiples et crawlables pour le même contenu. C'est la même problématique pour les blogs, avec l'indexation (ou pas) des catégories, tags et autres critères de recherche.
 
WRInaute accro
Marie-Aude a dit:
Excuses moi, ce ne sont pas des balises de "forme" (elles n'existent d'ailleurs pas dans le xhtml ^^), mais des balises sémantiques.
Pour moi les balises sémantiques ne sont (au même titre que les balises de présentation) autres que des balises de forme (par opposition au fond): les balises de présentation adressent les attributs calligraphiques, alors que les balises sémantiques ne renseignent que sur la nature et la structure du contenu ...

Bref inutile d'user le soleil, tout cela n'est pas bien important je crois que mes propos étaient suffisamment clairs, ce dont je parlais correspondant à une sorte de directive d'indexation (à l'instar d'une directive de compilation), une sorte de balise meta qui n'adresserait ni la nature, ni la structure, ni le fond, ni même la forme mais indiquerait aux moteurs que ce qui est encadré par cette balise ne doit pas être pris en compte pour le positionnement de la page ...

Marie-Aude a dit:
Je ne vois pas ce que cela a de stupide :D Chaque annuairiste aujourd'hui définit la "part" de DC qu'il accepte (le nombre de mots à la suite se retrouvant sur d'autres site) qu'il accepte, c'est exactement le même concept.
Les annuairistes fixent les règles qu'ils veulent sur leurs annuaires... je te signale quand même que cette contrainte nouvelle n'est apparue que depuis que Google s'intéresse au DC local ... Je ne vois d'ailleurs pas d'autre intérêt pour un site web une description de son entreprise complètement différente d'un annuaire à l'autre ... pas plus que je ne vois d'autre intérêt pour l'annuaire d'avoir une description unique ...

Marie-Aude a dit:
Quand à la taille idéale, je n'ai pas parlé de ça, libre à toi de déformer... j'ai parler de DC repris intégralement, au milieu d'autre DC. Oui de "densité".
On devrait pouvoir citer ce que l'on veut (il n'est pas rare sur certains blog de voir la citation d'articles en entier) ...

Marie-Aude a dit:
Sur quoi te bases tu pour affirmer que Google ignore leur sémantique ?
je n'ai jamais affirmé cela, je n'ai d'ailleurs pas parlé de sémantique, ce n'était pas l'objet de mon post ...

Marie-Aude a dit:
ça n'a rien à voir, et tu le sais très bien. La plupart des cms d'e commerce sont des usines à DC, entre les différentes présentations d'un même article / famille d'articles, les variantes, voir pour certains comme Prestashop, les créations d'urls multiples et crawlables pour le même contenu. C'est la même problématique pour les blogs, avec l'indexation (ou pas) des catégories, tags et autres critères de recherche.
NON, je parle bien de problèmes de DC local, sur les pages détaillées des produits notamment. Des blocs entier de texte qui revenaient sur certaines pages ce sont vue externalisées dans des iframes , générées en javascript et autres astuces ...

Le problème se pose d'ailleurs aussi avec les blocs headers, footers, et navigations ... qu'attend d'ailleurs Google pour différentier le DC intra-domaine de celui extra-domaine (comme il l'a fait pour les redirections 302 ... :wink:
 
WRInaute accro
Cendrillon a dit:
On devrait pouvoir citer ce que l'on veut (il n'est pas rare sur certains blog de voir la citation d'articles en entier) ...
Je suppose que ton "devrait" concerne la technique ?
Parce que sur la "citation" d'articles en entier, on ne "peut pas" sans l'accord de l'auteur.

Marie-Aude a dit:
Sur quoi te bases tu pour affirmer que Google ignore leur sémantique ?
je n'ai jamais affirmé cela, je n'ai d'ailleurs pas parlé de sémantique, ce n'était pas l'objet de mon post ...

Cendrillon a dit:
Marie-Aude a dit:
ça n'a rien à voir, et tu le sais très bien. La plupart des cms d'e commerce sont des usines à DC, entre les différentes présentations d'un même article / famille d'articles, les variantes, voir pour certains comme Prestashop, les créations d'urls multiples et crawlables pour le même contenu. C'est la même problématique pour les blogs, avec l'indexation (ou pas) des catégories, tags et autres critères de recherche.
NON, je parle bien de problèmes de DC local, sur les pages détaillées des produits notamment. Des blocs entier de texte qui revenaient sur certaines pages ce sont vue externalisées dans des iframes , générées en javascript et autres astuces ...

Le problème se pose d'ailleurs aussi avec les blocs headers, footers, et navigations ... qu'attend d'ailleurs Google pour différentier le DC intra-domaine et extra-domaine (comme il l'a fait pour les redirection 302 ... :wink:

Là encore tout est une question de proportion, plus que de "qu'est ce que Google attend". Si le texte "unique" ne représente qu'une faible partie de la page par rapport au contenu répétitif....
 
WRInaute accro
Marie-Aude a dit:
Je suppose que ton "devrait" concerne la technique ?
Parce que sur la "citation" d'articles en entier, on ne "peut pas" sans l'accord de l'auteur.
Cela va sans dire ... mais est-ce vraiment le sujet ?

Marie-Aude a dit:
Là encore tout est une question de proportion, plus que de "qu'est ce que Google attend". Si le texte "unique" ne représente qu'une faible partie de la page par rapport au contenu répétitif....
Bon, et bien avec ça on est bien avancé ...

bon, ce n'est pas que je m'ennuis mais je crains que nous ayons épuisé le sujet (et la patience des lecteurs) ...
bonne soirée à tous.
 
Nouveau WRInaute
Est ce que ferme de contenu ne voudrait pas dire la récupération du contenu des autres mixé pour en faire des pages ?

Parce qu'il me semble que ça a pas mal bougé de ce coté là fin de l'année et courant janvier non ?
 
Olivier Duffez (admin)
Membre du personnel
Non ce n'est pas ça, et je constate que bcp de monde confond fermes de contenu et agrégation de contenus

Voilà des exemples de fermes de contenus :
demandmedia.com (qui possède plusieurs sites dont ehow.com, pluck.com, golflink.com, livestrong.com et mania.com)
answers.com
associatedcontent.com racheté par Yahoo en mai 2010
les-experts.com par Wikio

pour ceux qui ne voient pas bien de quoi il s'agit, je leur conseille la lecture de cet article, même s'il date un peu (fin 2009)
 
Nouveau WRInaute
Ok, merci Olivier pour l'article et cette précision.

En gros ce serait de la culture intensive d'articles de piètre qualité ou même peut être de bonne qualité des fois ?

Le truc c'est que ça existe déjà à petite échelle et que ça s'intensifie...

Je me demande comment Google peut distinguer ce type de contenu de façon pertinente et surtout de façon automatique avec des algos. Il faudra surement une intervention humaine non ?

Il est vrai que j'ai pu remarqué que les articles ne sont plus analysés de la même façon par Google et ceux depuis un petit moment, ils s'indexent en général très vite mais se positionne beaucoup plus tard. C'est peut-être à cause de ça non ?
 
Nouveau WRInaute
Et si google clôturait tout simplement les comptes Adsense. Car tous les sites qui réalisent ce genre de pratique utilisent leur compte adsense premium s'il vous plait.

Alors plutôt de nous sortir de nouveaux algos qui vont encore pénalisés beaucoup de site qui ni sont pour rien ( blog perso, forum et sûrement beaucoup de sites pros ) ça serait tellement plus simple !!!!
 
WRInaute accro
Vu, le petit troll lâché et puis s'en va ^^
Heureusement qu'il y a aussi des sites qui n'ont rien à se reprocher qui utilisent Adsense :)
Mais oui ça peut sembler injuste pour eux qui sont cleans...
 
Nouveau WRInaute
Ok, mais si ils ont tjs le traffic ils développeront leur propre système de monétisation. Mais c'est vrai que pour le début ça pourrait en décourager certain.

Après, le web ce ne sont pas que des articles rédigés par des journalistes, il ya les forums, les blogs, les annonces... et c'est pas du contenu d'énorme qualité ! Alors comment déceler ça ? Espèront que si il prennent ces mesures ils ne fassent pas l'amalgame. L'automatique c'est bien beau mais cet éventuel spam de contenu est je pense à traiter par un humain.
 
WRInaute accro
Si Google développe un algorithme qui repère les phrases creuses et la langue de bois, on pourrait s'en servir pour corriger les dissertes de philo et analyser les discours politiques.
 
Nouveau WRInaute
Je viens de reregarder certains des sites avancés comme étant des fermes de contenu, certains sont uniquement des sites communautaires ou chacun peut poster ses articles, je vois pas ou il y a problème dans ce cas, car au moins chacun peut s'exprimer et se faire connaître (bon après ça peut probablement dévaluer le coté rédactionnel, mais bon). Puis ça existe déjà, sauf que là c'est fait à grande échelle, après si c'est de la tromperie c'est bien fait. Après peut être qu'il ya des trucs que j'ai pas encore compris, mais je suis d'accord sur le fait que si ça devient massif ce genre de choses c'est pas le top non plus.
 
WRInaute passionné
Rappelons juste que Google fnance toujours, à hauteur de quelques millions de dollars chaque année, la plus grosse des fermes de contenu mondiales : Wikipedia.
 
Nouveau WRInaute
J'arrive toujours pas à comprendre alors ce que vous appelez ferme à contenu. Wikipédia est un site communautaire et d'informations, après qu'il ai beaucoup de contenu, ça en fait bien sur une mine de contenu mais je ne vois pas la notion d'élevage, concentration et d'exploitation , définition même d'une ferme.
 
WRInaute accro
lafleur2004 a dit:
Rappelons juste que Google fnance toujours, à hauteur de quelques millions de dollars chaque année, la plus grosse des fermes de contenu mondiales : Wikipedia.

Tu compares Wikipedia qui a une seule page sur les Roses (exemple) alors que les experts vont te sortir 50 pages comme "Planter une rose" "comment planter une rose" "faut il planter une rose" "les roses et la plantation"
 
WRInaute discret
Autre article ou sont cités des fermes de contenu.
@http://www.bonweb.fr/share/clictr.php?u=http%3A%2F%2Fwww.zdnet.fr%2Factualites%2Ffermes-de-contenus-prochaines-cibles-de-google-39757724.htm
Vous reconnaitrez le type de site qui pollue un peu les pages de recherche :mrgreen:
 
WRInaute accro
C'est de l'intox à la Google. Une confusion entretenue entre spam et ferme de contenu et de soi-disant algorithmes pour faire le tri. On parle de vrais articles uniques et écrit par de vrais gens. Le fait qu'ils soient incompétents ne peut pas être repéré par un ordinateur. Si j'écris un article sur la bourse avec la même proportion de mots-clefs qu'un article de finstreet, je peux très bien lui piquer sa place, toutes choses égales par ailleurs. Pareil s'il écrit un article sur le biniou.
 
WRInaute passionné
finstreet a dit:
Tu compares Wikipedia qui a une seule page sur les Roses (exemple) alors que les experts vont te sortir 50 pages comme "Planter une rose" "comment planter une rose" "faut il planter une rose" "les roses et la plantation"

Ah d'accord, selon toi, le fait que du contenu de troisième main se retrouve sur une ou plusieurs page fait toute la différence ?

Ca reste toujours du contenu de troisième main, produit par les utilisateurs. Sauf que dans ce cas, celui-ci est financé directement à hauteur de plusieurs millions de dollars par an par Google, au lieu que ce soit via le programme Adsense.

A part, ça, c'est bien l'article sur les roses dans Wikipédia : dedans il y a un lien, tu cliques et hop ! tu tombes sur le dessin d'un type qui lèche le trou du cul d'un autre type. Y en a pas un ici qui disait que pour que son gamin s'instruise sur Internet, il lui faisait lire Wikipedia ?

:lol: :lol: :lol:
 
WRInaute discret
Si j'écris un article sur la bourse avec la même proportion de mots-clefs qu'un article de finstreet, je peux très bien lui piquer sa place, toutes choses égales par ailleurs. Pareil s'il écrit un article sur le biniou.
A voir, mais c'est bien le problème, sur certaines requêtes, la première page est squattée par des "choses", trucs", qui n'ont vraiment aucun intérêt au détriment de site qui apportent une réelle réponse.
 
WRInaute accro
lafleur2004 a dit:
finstreet a dit:
Tu compares Wikipedia qui a une seule page sur les Roses (exemple) alors que les experts vont te sortir 50 pages comme "Planter une rose" "comment planter une rose" "faut il planter une rose" "les roses et la plantation"

Ah d'accord, selon toi, le fait que du contenu de troisième main se retrouve sur une ou plusieurs page fait toute la différence ?

Pffff y'a vraiment rien à tirer de toi. Toujours à se plaindre. Mais oui allez, je te fais plaisir. C'est la même chose. T'es content ? Tu as pu vomir ta haine sur Wikipedia ? Ca va mieux ?
 
WRInaute accro
VINCENT66 a dit:
A voir, mais c'est bien le problème, sur certaines requêtes, la première page est squattée par des "choses", trucs", qui n'ont vraiment aucun intérêt au détriment de site qui apportent une réelle réponse.

Certes, tu as raison mais n'est pas nouveau. Les pages des plus grands experts arriveront toujours derrière celles de parfaits ignares dans le domaine pour peu que ces derniers aient quelques "connaissances" en référencement (et plus c'est pointu plus c'est flagrant) ... En fait cela fait bien longtemps que les SERPs ne classent plus les pages en fonction de leur "pertinence" mais en fonction des compétences en référencement de leurs développeurs ...

Mais les moteurs n'en sont pas dupes, voila sans doute pourquoi après avoir passé beaucoup de temps à instrumenter leurs moteurs en mis en place des dizaines d'outils, ils commencent à s'intéresser à l'avis des utilisateurs eux même au travers de leurs outils (nombreux), des réseaux sociaux, ...

édit : correction de faute d' "ortaugraf"
 
WRInaute passionné
:lol:

finstreet a dit:
Pffff y'a vraiment rien à tirer de toi. Toujours à se plaindre. Mais oui allez, je te fais plaisir. C'est la même chose. T'es content ? Tu as pu vomir ta haine sur Wikipedia ? Ca va mieux ?

Je ne me plains pas, je constate.

Examine plutôt les conditions d'acceptabilité d'un texte : au final et au mieux, c'est forcément de la paraphrase d'une "source secondaire". Donc de la troisième main.

A part ça, c'est gentil de prendre de mes nouvelles, ça va toujours bien, merci :D Par contre de ton côté, ça n'a pas l'air de s'arranger côté nerfs... Tu as songé à consulter ?
 
WRInaute accro
Wikipedia est comparé à Britannica, mais c'est vrai que c'est surement à comparer à des sites présentant sous 30 formes différentes la même chose. Et tu ne constates rien, tu es bien incapable de faire le moindre constat :)
 
WRInaute passionné
Je ne vois pas bien ce qu'une collection démesurée de textes de troisième main rédigés par n'importe qui et classés n'importe comment a à voir avec une vraie encyclopédie. Mais ce n'est pas le sujet.

Au niveau du fonctionnement, je trouve que Wikipedia possède les caractéristiques d'une ferme de contenu, et que les banalités que l'on trouve à dire sur un sujet soient réparties sur une page ou plusieurs n'y change pas grand-chose.

Après, je conçois que ceux que Google désigne comme des méchants le soient immédiatement à tes yeux, et que tu trouves tout à fait utiles ceux que Google finance. Mais tu sais, ce n'est pas parce que tu es incapable de penser par toi-même que tout le monde a le même handicap ;)
 
WRInaute accro
c'est justement le sujet. Y'a t-il 50 pages parlant d'un même sujet sur Wikipedia ? Non. Y'a t-il 50 pages parlant d'un même sujet sur les fermes de contenu ? Oui.

"Mais tu sais, ce n'est pas parce que tu es incapable de penser par toi-même que tout le monde a le même handicap"

Etre qualifié de quoique ce soit venant de ta part est des plus comiques :) Bon on rediscutera quand tu auras un vrai nom et que tu te planqueras pas derrière un pseudo :)
 
WRInaute passionné
Et donc, je répète, le fait que le contenu bas de gamme soit réparti sur plusieurs pages ou reste sur une seule n'est pas très important : il s'agit toujours de contenu bas de gamme en quantité industrielle produit par les internautes.

A moins que tu n'arrives à défendre l'idée que du contenu de mauvaise qualité ne devienne intéressant juste parce qu'il est regroupé sur une seule page... Ca me paraît être à ta portée, je crois t'avoir lu argumenter sur des trucs aussi idiots... Tu essayes ?

:lol: :lol: :lol:
 
WRInaute discret
Cendrillon a dit:
En fait cela fait bien longtemps que les SERPs ne classent plus les pages en fonction de leur "pertinence" mais en fonction des compétences en référencement de leurs développeurs ...
Déprimant, mais pas complètement faux...
 
WRInaute accro
lafleur2004 a dit:
Et donc, je répète, le fait que le contenu bas de gamme soit réparti sur plusieurs pages ou reste sur une seule n'est pas très important : il s'agit toujours de contenu bas de gamme en quantité industrielle produit par les internautes.

A moins que tu n'arrives à défendre l'idée que du contenu de mauvaise qualité ne devienne intéressant juste parce qu'il est regroupé sur une seule page... Ca me paraît être à ta portée, je crois t'avoir lu argumenter sur des trucs aussi idiots... Tu essayes ?

:lol: :lol: :lol:

1. le contenu de Wikipedia dans son ensemble n'est pas un contenu bas de gamme
2. Répéter 50 fois le MEME contenu n'est pas du tout ce que fait Wikipedia, mais les fermes de contenu le font

Bref, tu es hors sujet
 
WRInaute occasionnel
Cendrillon a dit:
En fait cela fait bien longtemps que les SERPs ne classent plus les pages en fonction de leur "pertinence" mais en fonction des compétences en référencement de leurs développeurs ...

Ou plutôt de la somme prete a verser aux échanges de liens, de compétences, de structure, etc...

Vous voulez vous placer dans les 10 premiers ? dites juste combein vous avez de budget...
 
WRInaute passionné
WebRankInfo a dit:
doit-on attendre que lafleur2004 se calme tout seul ? car à part pourrir ce topic...

J'ai juste émis l'opinion suivante : je pense que Wikipedia est une ferme de contenu financée en grande partie par Google. Ensuite je me suis directement fait prendre à partie par Finstreet, et j'ai eu la faiblesse de me mettre à son niveau pour lui répondre. Il ne faut pas ?

Après, hein, il ne faut pas te gêner, si mes interventions ne te conviennent pas, tu les vires, tu es chez toi :D

A mon avis d'ailleurs ce serait mieux que de m'interpeller en public, mais bon, tu te le vois ;)
 
Olivier Duffez (admin)
Membre du personnel
étant donné la façon dont tu t'adresses aux autres, et le nb de posts publiés sans que je m'aperçoive du ton utilisé, j'ai pensé qu'on pouvait en discuter en public. Ce sera donc ma dernière remarque à ce sujet.
 
Nouveau WRInaute
Bonjour,

je viens de m'apercevoir que le site samestory reprenait une grande partie des messages de certains forums que j'administre et le tout en No follow, est ce une une ferme de contenu ? D'autres sites reprennent le contenu mais on au moins la délicatesse de ne pas mettre de No follow

Merci :)
 
WRInaute passionné
Plutôt que disserter sur la théorie du complot Wikipedia/Google, il y a un point essentiel à connaître à propos des fermes de contenus. Cela concerne la rémunération des rédacteurs.
Par exemple, Populis paye entre 5 et 10€ l'article (fixe + comm sur les clics, vu, etc.).
Wikio est un peu plus généreux puisque ça va de 5 à 15€ pour les articles de la partie "experts".
Même en achetant mon contenu offshore et avec du volume, je n'arrive pas à ces tarifs misérables.

Le problème fondamental est à la base, touchant le modèle économique même du Web. Chris Anderson l'évoquait dans son article brûlant "The Web is Dead".
Si on compare avec d'autres business publicitaires, les clics publicitaires sont juste préhistoriques.
De ce fait, bien sûr que les rédacteurs sont payés une misère et bien sûr que le contenu publié est médiocre.
C'est donc une tare qui dépasse largement Google ou Demand Media pour s'en prendre encore et toujours à la problématique de monétisation directe (e-commerce étant indirecte dans ce sens) sur le Web.
 
WRInaute accro
Au fait qu'est-ce que ça devient Knol ?
Google n'a pas toujours été contre le principe des fermes de contenu :oops: je veux dire du contenu web 2.0
 
WRInaute accro
fredfan a dit:
Au fait qu'est-ce que ça devient Knol ?
Google n'a pas toujours été contre le principe des fermes de contenu :oops: je veux dire du contenu web 2.0

Et hop, encore un de plus qui n'a pas compris ce que c'était :)
 
WRInaute impliqué
Je suis tombé sur çà : wikibis.com, pour comprendre, c'est çà que Google appelle une ferme à contenu ? Apperament cela reprend Wikipédia avec un peu de moulinage, avec des sous-domaines, cela passe bien dans les serp.

Y'a un paquet de sites clonés de Wikipédia qui passe dans les serps sans soucis...

Google semble avoir du mal à trouver le DC pour peu qu'il y ait un peu de moulinage, non ?
 
Discussions similaires
Haut