Générateur de contenu + Google, faire le point ?

vivreadjerba

WRInaute discret
Bonjour j'ai parcouru un peu WRI et je n'ai trouvé que des vieux articles datant de 1 an ou plus qui parlent des générateurs de contenus.
Qu'en est t-il en Juillet 2010 ?

Mes questions :

- Je vois de plus en plus de site qui "reprennent" les flux RSS et les affichent sur leur site, pour creer du contenu, du traffic, etc, avec parfois un lien vers le RSS original, parfois juste le nom sans lien, et parfois rien du tout.
Que pensez vous de ca ?

- Je vois de plus en plus aussi de sites qui prennent juste des articles aux autres, du "copier/voler", pareil avec parfois un lien, parfois pas de mention de la source.
Qu'en est til encore ?

Je ne parle pas seulement du duplicate content ici, mais du phénomène en général qui devient de plus en plus la mode.

- La generation de contenu automatique en général

J'ai vu une video recemment qui disait que Google avait vraiment "peur" de la génération de contenu automatique, et que ca risquait d'etre un probleme de plus en plus important.
Qu'en pensez vous ?

Comment voyez vous les choses évoluer à ce niveau d'ici 1 ou 2 ans ?

Avec MayDay, Google à déja frappé un peu, mais pensez vous que Google va encore sévir ?....

Sinon avez vous essayé ? Pour ma part j'ai fait un site de test pour tester recemment basé sur des flux RSS (aprés tout, c'est le principe de WIKIO, sauf que eux, ils font ca en "société"), j'attend de voir les résultats pour voir ce que sa va donner.

C'est interessant du point de vue technique bien sur, je ne parle pas ici conseils de spam ou de seo blackhat... Techniquement, comment ca peut évoluer, etc ?...

Je sais qu'il faut faire en sorte de mieux etre optimisé, pour que notre contenu arrive en SERP avant un site qui nous l'aurait "copié/volé", mais qu'en pensez vous en général.
Ce sujet m'interesse en tout cas

THX.
 

vivreadjerba

WRInaute discret
D'ailleurs, ce qui est marrant, c'est que Google a exploité en 1er le filon du "copier/volé" avec Google news. Donc en fait Google en profite pour chopper tout le traffic et le rediriger vers les sources, en choppant au passage un sacré traffic.

WIKIO a suivi ensuite, mais bon WIKIO a été grandement pénalisé en SERP en 2008, et depuis, bon je ne connais pas les stats de WIKIO, mais je ne me souvient pas detre tombé sur une page WIKIO dans les SERP depuis fort longtemps... Pour moi, wikio c'est mort, bon bien sur ils ont leur modele économique, ils ont dautres sources de traffics, mais bon, je ne sais pas trop qui utilise wikio...

Donc, google -> mauvais élève qui a mangé la part du gateau du "copié/volé" avec Google news, qui permet d'asseoir leur position de dominant dans le "fournissage" d'information avec du contenu produit par les autres en RSS, mais qui ne veut pas que les autres fasse pareil.
Si je veux faire un "monsite-news" semblable à google news, je ne pense pas que j'irai bien loin en SERP, Google va me dégager vite fait.

Je pose ces question car je vois des niches qu'il peut etre interessant d'exploiter.

J'ai des sites sur certains secteurs niche, et il n'y a pas vraiment de bon aggrégateur de contenu sur ces sujets. Si je veux etre "up to date" sur l'info au quotidien, c'est la galère à trouver un genre de RSS mashup qui va me fournir mon info pret à etre digérée par moi.
La je perd du temps énorme, à aller à droite et à gauche pour chopper mes infos.
ET sur certains sujet, je n'aime pas avoir l'info dans mon Reader RSS, j'aime bien voir l'info sur des sites, avec des commentaires, etc etc une certaine dynamique qu'il n'y a pas dans mon reader RSS.

DONC tout ca pour dire : si je pense à faire un projet de Agregateur RSS à la Google NEWS, qui choppe tous les contenu RSS de mon secteur niche, et en fait 1 site commercial avec 1 domaine, en linkant bien sur en retour les sources de toutes les infos, pensez vous que Google va pénaliser mon domaine ?

Ca serait bien pour le secteur professionnel ciblé, car ca permettrai à dautre daccerder directement a 1 site regroupant le meilleur de l'info de ce secteur. Donc c'est pas du tout un projet de spam et de polution des SERP j'espère que vous voyez ce que je veux dire.

J'utilise déja feedly que j'aime bien, mais la c'est pour faire un site commercial, (avec pubs etc) que les gens peuvent consulter. (et ca serait aussi vraiment bon pour cette industrie en question, ca permettrai de faire beaucoup plus circuler les infos importantes)

Je veux rajouter que bien évidemment, je pense à faire ce projet si il peut etre rentable et rémunérateur, c-a-d que je peux atteindre un flux de traffic raisonnable dans les SERP. Je ne ferai pas ca bénévolement pour faire plaisir aux professionnel de ce secteur .... Maintenant ma question est est-ce qu'un projet comme ca va etre fortement pénalisé par Google, donc je vais galerer comme pas deux à generer du traffic, donc ca ne sera pas rentable, ou non.

Que pensez vous de tout ca.

THX.
 

Leonick

WRInaute accro
vivreadjerba a dit:
ET sur certains sujet, je n'aime pas avoir l'info dans mon Reader RSS, j'aime bien voir l'info sur des sites, avec des commentaires, etc etc une certaine dynamique qu'il n'y a pas dans mon reader RSS.
il te suffit juste de cliquer sur le lien dans ton flux rss pour arriver sur le site
le dynamisme que tu cherches, tu ne l'auras pas dans un Agregateur RSS mais sur le site, donc l'Agregateur ne t'apportera rien

vivreadjerba a dit:
Donc c'est pas du tout un projet de spam et de polution des SERP j'espère que vous voyez ce que je veux dire..
il suffit de ne pas le faire indexer.
Il ne faut pas oublier que les flux rss ont été créés pour une utilisation personnelle et non une réutilisation professionnelle (sur un site web ou autre), surtout pour en retirer un profit commercial.
Après, les sites qui se ferait prendre du trafic de cette façon peuvent faire un spam report sur gg, pour non respect des droits d'auteurs et là, adsense c'est fini et une belle sandbox pour ton site :wink:
 

vivreadjerba

WRInaute discret
Leonick a dit:
Après, les sites qui se ferait prendre du trafic de cette façon peuvent faire un spam report sur gg, pour non respect des droits d'auteurs et là, adsense c'est fini et une belle sandbox pour ton site :wink:

Um.. Merci de l'info j'avais pas directement envisagé ca...

Mais bon, quand meme, c'est le principe de wikio non ? ou bien j'ai loupé un chapitre ? Wiki ne fait rien (ou trés peu) d'autre chosse que ca. Je crois que ya aussi paperblog mais ca doit faire 2 ans que j'y suis pas allé. Ces sites ont pour fond de commerce la réutilisation des RSS pour finallement faire du traffic avec.. ou je me trompe?

Je me pose toujours la question, quelle différence ya til entre ces site (WIKIO, PAPERBLOG) et un site que je voudrai faire d'aggregation de flux RSS sur un secteur nich particulier... Si je fait un beau portail ergonomique, avec une TOS kkpart, etc une belle adresse IRL et un num de teléphone, etc meme un numero SIRET si necessaire ?...

Leonick a dit:
Il ne faut pas oublier que les flux rss ont été créés pour une utilisation personnelle et non une réutilisation professionnelle (sur un site web ou autre), surtout pour en retirer un profit commercial.

Oui mais la encore, Google est le 1er a avoir détourné cette utilisation personnelle pour lutiliser à ses fins commerciales avec google news... (et google news rapportes bcp de $$)....
 

Leonick

WRInaute accro
1) on peut interdire le crawl de ses pages aux vrais moteurs (ceux qui respectent robots.txt)
2) je n'autorise que les 5-6 plus gros moteurs à indexer mes sites, donc en dehors de eux, aucun autre service n'a autorisation de réutiliser le contenu de mes sites pour créer son propre contenu
3) gg est un moteur de recherche. On récupère donc directement des visiteurs depuis gg. les autres "services d'aggrégation" utilisent notre contenu pour se positionner sur gg. S'ils jouaient le même jeu que gg (pas d'indexation de leur contenu dans les serp, liens directs vers nos sites), ça me poserait moins de problèmes, car ça deviendrait un autre canal d'acquisition des visiteurs. Mais ce n'est pas le cas, car le contenu récupéré chez les autres leur sert à se positionner dans les serp et pomper les visiteurs qui, sans ça, iraient sur les sites dont ils récupèrent les flux

En plus, si tu as suivi l'actualité de ces 2 dernières années, wikio a eu quelques problèmes avec les webmasters, car non content de récupérer les flux rss, ils crawlaient aussi le contenu du site
 

Discussions similaires

Haut