Duplicate Content : Google va-t-il droit dans le mur ?

WRInaute impliqué
Salut

Je laisse ce message suite à de profondes réflexions concernant le duplicate content. :?
J'ai voulu récemment inscrire un de mes sites dans un annuaire dont je tairais le nom,
et je n'y suis pas parvenu, car leur filtre anti duplicate me répond toujours la même chose,
description déjà existante. Outre le fait que cela était faux, l'inscription était bien unique
et non présente sur le net, je me demande si le duplicate content ne vas commencer à rendre
certains annuairistes paranos ? Google pousse les annuairistes à la paranoia et les webmasters
à travailler de plus en plus longtemps leur référencement naturel.

Mais vu la croissance exponentielle des contenus sur le web, il est raisonnable de penser
que certaines expressions vont se trouver multiplier je ne sais combien de fois,
simplement parce qu'il sera impossible à un site de n'afficher que du contenu unique.
Plus le contenu du web grossit et plus le risque de voir se multiplier des expressions de 4, 5,
ou 6 mots identiques va s'accroître, c'est une question de logique.
Malgré que la langue française soit d'une richesse extrème, les combinaisons de mots
ne sont pas éternelles, surtout lorsqu'il s'agit de décrire une activité, et d'autant plus si l'activité
en question est ultra concurrentielle d'apres google.

On lit ici et là que Google sait faire la différence entre les pages et qu'il ne pénalise pas
le duplicate content. Toujours est-il quand on voit la politique ultra drastique de cet
annuairiste dont je parlais plus haut, l'épouvantail du contenu dupliqué fait bien des ravages.
Google ne risque t'il pas sur le long terme de se mettre à dos, bon nombre de gens
qui en auront ras la casquette du duplicate content, je parle du duplicate sévère
qui ne tolère même pas une petite suite de mots identiques reprises sur deux pages différentes,
ne va-t-il pas droit dans le mur avec cette politique de pression qu'il exerce sur tous les acteurs
d'internet ? Apres tout, Google n'est pas le roi d'internet, et il arrivera peut-être un jour,
ou d'autres acteurs récupéreront un certain nombre d'anciens google maniacs. Qu'en pensez vous ?
 
WRInaute passionné
Hello

2 réponses rapides :
Non, car la plupart des webmasters ne sont pas au fait du duplicate content, du SEO, et de toutes ces techniques de référencement.

Non, car je fais confiance aux ingénieurs de Google pour cogiter suffisamment à l'évolution des algorithmes de Google. Il y a suffisamment de personnes chez eux pour réfléchir à tout cela.

lolo
 
WRInaute accro
Franchement qu'est-ce qu'il en a à faire Google d'une petite quinzaine "d'anuairistes" qui se prétendent plus royalistes que le roi ? Hein franchement, et toi même d'ailleurs qu'en as-tu vraiment a faire de ne pouvoir t'inscrire dans 1 annuaire alors qu'il y a tant de façons différentes d'obtenir des liens ?
 
WRInaute impliqué
serval2a a dit:
Hein franchement, et toi même d'ailleurs qu'en as-tu vraiment a faire de ne pouvoir t'inscrire dans 1 annuaire alors qu'il y a tant de façons différentes d'obtenir des liens ?

Je n'en ai rien a faire en fait, et je sélectionne au compte goutte super lent les annuaires ou je m'inscris.
J'attendais plus des réponses à ma question ou des avis, plutôt que des questions.
 
WRInaute passionné
Je ne sais pas si c'est de mon annuaire dont il s'agit mais chez moi la vérification sert a détecter les descriptions copier coller. Je pars du principe que si une grande partie de la description est déjà présente sur un autre site elle lui appartient et je n'ai pas le droit de la copier (c'est aussi valable si la description est copiée du site soumis). Comme je n'ai pas le temps de réécrire plusieurs dizaines de descriptions par jour je suis obligé d'utiliser un contrôle automatique pour faire le tri.
Si plus de la moitié des phrases existe ailleurs à l'identique, je refuse le site. En général je corrige, je réécrit et je complète la description mais c'est impossible de rédiger une description complète sans bien connaître le site et sans y passer 1/4 d'heure.
Ceux qui se donnent la peine de rédiger une description avec des phrases sans fautes et qui donne envie de visiter le site sont aussi ceux qui ont le plus de visiteurs. Ca me conforte donc dans le choix de la qualité plutôt que la quantité.
C'est peut-être beaucoup demander pour un service gratuit mais j'annonce clairement les règles et j'oblige personne à s'inscrire.
 
WRInaute accro
Lomax7 a dit:
je me demande si le duplicate content ne vas commencer à rendre
certains annuairistes paranos ?

Pas que les anuairistes, aussi les webmasters dans leur propre contenu .. :evil:
 
WRInaute passionné
Salut forty, je fais cela manuellement avec un de mes annuaires, c'est vrai qu'un script automatique ca le fait ;)

Ps : Je t'ai fais une belle et longue description pour serrurier.com , merci d'y jeter un oeil :wink:
 
WRInaute impliqué
forty a dit:
Je ne sais pas si c'est de mon annuaire dont il s'agit mais chez moi la vérification sert a détecter les descriptions copier coller.

Non forty c'est pas le tien. J'ai déjà proposé mon site sur ton excellent annuaire,
il doit être dans la file d'attente je suppose.

detectimmobilier a dit:
Si c'est le coup de gueule du jour, je le partage

Non, même pas... :)
 
WRInaute accro
Il est ou le problème ? C'est juste que ça te derange en tant qu'annuairiste que Google te sanctionne pour duplicate ? Perso, je ne vois pas en quoi Google se tire une balle dans le pied, au contraire, les serp n'en sont que moins pollués.
 
WRInaute accro
Lomax7 a dit:
J'attendais plus des réponses à ma question ou des avis, plutôt que des questions.
Re,
Mes questions sont elles même des réponses ;) , tu poses l'interrogation de savoir si Google se tire une balle dans le pied avec le duplicate content, je réponds "qu'en a-t-il à faire ?" (sous entendu : rien).
Il y a des centaines de millions de sites, des centaines de milliers d'annuaires, alors il aura toujours un endroit pertinent où envoyer l'internaute, qui comme toi, moi et Matt Cutt s'en fout de savoir que Super-annuaire-de-la-mort.biz n'a pas de fiche pour le site Untel.com parce que le webmaster de Super-annuaire-de-la-mort.biz a décidé de devancer les désirs de Google et de se faire rédiger un bon contenu de plusieurs lignes en contre-partie d'un lien caché au fin fond d'une catégorie.
Donc en tant que créateur de contenu, utilisateur de contenus déposés dans mes annuaires et utilisateur final, d'internet, je ne pense pas que Google se tire une balle dans le pied.
@+
 
WRInaute passionné
Lomax7 a dit:
Non forty c'est pas le tien. J'ai déjà proposé mon site sur ton excellent annuaire,
merci mais c'est pas la peine d'en rajouter pour obtenir un régime de faveur ;)
Lomax7 a dit:
il doit être dans la file d'attente je suppose.
s'il a été proposé il y a moins d'une semaine oui : j'arrive pas a résorber la longue file d'attente.
 
WRInaute accro
La question qui se pose, avec cette histoire de duplicate content et la façon dont certains annuairistes la gère est : vaut-il mieux, pour le visiteur, avoir beaucoup de "bon" contenu quand il effectue une recherche dans une catégorie donnée où n'avoir que du contenu réécrit spécifiquement pour que l'annuaire ait plus de pages indexées (récupérant, au passage, des visiteurs sur les requêtes du site).
Un annuaire est sensé avoir des visiteurs qu'il amène sur les sites inscrits et non pas avoir des récupérer les visiteurs sur les requêtes des sites.
A force de trop vouloir des pages indexées sur les moteurs, les annuaires qui filtrent le duplicate vont se retrouver avec moins de sites intéressants. Ce n'est pas tant le fait de passer du temps à faire une description unique qui va en bloquer certains, mais plutôt (en tout cas c'est mon cas) le fait de devoir donner trop de requêtes différentes aux annuaires pour avoir du contenu unique.

Maintenant, si on se place au niveau des visiteurs : je cherche un hôtel à Figeac, par exemple. Le webmaster du site d'un des hôtels a bien fait les choses, en modifiant à la fois le titre et la description. Sur un premier annuaire je n'ai qu'un hôtel. Je retourne dans gg, et je retombe encore sur un autre annuaire, placé devant plein d'hôtels, là, 1 seul hôtel, qui me semble différent, mais non, encore le même mais avec un titre et une description différente, je retourne dans gg, 3° annuaire, encore le même hôtel avec un autre titre et une autre description.
Résultat, je suis énervé d'avoir été berné 3 fois pour tomber sur le même site.

Ou, dans l'autre sens, j'ai trouvé au hasard de mes surfs un site qui m'intéresse, mais selon les recherches que je vais effectuer, je n'aurais pas les mêmes titres et descriptions, ce qui fait que je ne reconnaîtrais pas le site que je recherche.
Titre et description font partie du contenu d'un site et, normalement, on devrait reconnaître l'"empreinte" du site dans ces éléments, au lieu de la travestir pour faire plaisir à certains annuairistes.
 
WRInaute passionné
pour moi la description unique est un préalable mais pas le principal critère. c'est avant tout la qualité global le principal critère de sélection.
sur mon modeste annuaire, les visiteurs ne se contentent pas d'aller directement sur le site référencé mais vont voir aussi les autres sites proposés (ceux avec une thématique proche ou ceux a proximité géographique). Si je reprends l'exemple de ton hôtel, il sera peut-être visité car il se trouve a côté d'un musée lui aussi référencé. Ce n'est donc pas que du vol de visiteur : il y a aussi une petite valeur ajoutée.
Ton petit hôtel, s'il est visible sur plusieurs sites, c'est peut-être qu'il est de qualité et qu'il vaut le détour.
en suivant ton raisonnement on peut supprimer les annuaires, les moteurs de recherche, les guides, les comparateurs, ....
 
WRInaute passionné
detectimmobilier a dit:
Si c'est le coup de gueule du jour, je le partage


tout pareil ... je partage volontiers ce coup de gueule et MES raisons sont simples :

-> les notions de SEO concernant GG en particulier, deviennent depuis maintenant depuis de nombreux mois (> 12) de plus en plus opaques ...

-> de plus en plus on se rends compte d'une chose, c'est que les responsables de sites a forts trafics restent les seuls (en terme d'expérience seulement) a pouvoir donner une approche technique du SEO basée sur des tests, seulement parce que cela se jouent sur plusieurs milliers voire millions de pages et qu'a partir de ce nombre les fluctuations (en terme de SERPs ou indexatyion peuvent en effet faire apparaitre des pistes)... On ne peut simplement pas conclure de résultats probants sur un blog ou sur un site 'vitrine' voire un site clé en main e-commerce se basant sur 100 / 1000 VU/jour.

-> De plus en plus les responsables de sites a forts trafics ne peuvent même plus avoir une certaine ligne de conduite SEO car tous les jours c'est des dizaines de questions sans réponses qui sèment nombre d'embuches sur leur responsabilité professionnelle.

... a suivre ...
 
WRInaute accro
forty a dit:
en suivant ton raisonnement on peut supprimer les annuaires, les moteurs de recherche, les guides, les comparateurs, ....
des SERP, oui !
quand je recherche des infos techniques sur un appareil, (téléphone, APN, etc...) ça me gave de ne tomber que sur des comparateurs, faux guides ou moteurs de recherches qui ne me donnent aucune info sur ce qui m'intéresse.
 
WRInaute passionné
et pour répondre a la question au risque de me faire lyncher : faire du vent ou plus communément du web2.0 et rester dans des propositions maintes et maintes fois répétées et validées (et quelque part tant mieux il le faut) c'est le but premier des forums en effet, je le conçois tout a fait ... n'empêche qu'a partir d'un certain niveau GGboss prend le dessus sur TOUT le monde..

c'est un etat de fait :) du moins pour l'instant :)
 
WRInaute discret
Lomax7 a dit:
Apres tout, Google n'est pas le roi d'internet, et il arrivera peut-être un jour,
ou d'autres acteurs récupéreront un certain nombre d'anciens google maniacs. Qu'en pensez vous ?

Peut être qu'un jour il tombera de son trône mais pour l'instant c'est le roi d'internet. Et tant pis s'il effraie certains de ses sujets :twisted:
 
WRInaute accro
Libre à ses sujets de ne pas accepter que son site soit indexé par Google ... Bizarrement ça gueule mais ça interdit rarement google au final ...
 
WRInaute passionné
L.Jee a dit:
Libre à ses sujets de ne pas accepter que son site soit indexé par Google ... Bizarrement ça gueule mais ça interdit rarement google au final ...

Un Roi sans sujet ne sert pas à grand-chose :wink:

Les webmasters ont besoin de Google, mais Google a aussi besoin des webmasters.

C'est sur que c'est frustrant de travailler dans l'opacité, mais c'est aussi l'intérêt du SEO, si l'algo de Google était publique, on ne servirait pas à grand-chose...
 
WRInaute passionné
L.Jee a dit:
Libre à ses sujets de ne pas accepter que son site soit indexé par Google ... Bizarrement ça gueule mais ça interdit rarement google au final ...

si tu regarde bien il y a quand meme pas mal de NOINDEX/NOFOLLOW sur les sites grs traf ...
etudie aussi les robots.txt pratique qui devient de plus en plus essentielle aux vues des "avancements" <-- c'est un gros mot avancement :mrgreen: judiciaires francais :)
 
WRInaute accro
Même si beaucoup de gros sites utilisent le nofollow, Google n'a pas pour autant baisser au niveau audience, donc la balle dans le pied, pas gagné sur ce coup :D
 
WRInaute impliqué
Leonick a dit:
Maintenant, si on se place au niveau des visiteurs : je cherche un hôtel à Figeac, par exemple. Le webmaster du site d'un des hôtels a bien fait les choses, en modifiant à la fois le titre et la description. Sur un premier annuaire je n'ai qu'un hôtel. Je retourne dans gg, et je retombe encore sur un autre annuaire, placé devant plein d'hôtels, là, 1 seul hôtel, qui me semble différent, mais non, encore le même mais avec un titre et une description différente, je retourne dans gg, 3° annuaire, encore le même hôtel avec un autre titre et une autre description.
Résultat, je suis énervé d'avoir été berné 3 fois pour tomber sur le même site.

Ou, dans l'autre sens, j'ai trouvé au hasard de mes surfs un site qui m'intéresse, mais selon les recherches que je vais effectuer, je n'aurais pas les mêmes titres et descriptions, ce qui fait que je ne reconnaîtrais pas le site que je recherche.
Titre et description font partie du contenu d'un site et, normalement, on devrait reconnaître l'"empreinte" du site dans ces éléments, au lieu de la travestir pour faire plaisir à certains annuairistes.

On tombe donc dans un système de cercle vicieux. Les annuairistes insistent pour avoir une description unique, et ils valident (certains) sans vérifier si le contenu est pertinent. Du coup les résultats espérés ne sont plus au rendez vous. Moi je vous dis que ça va mal finir cette histoire de duplicate, soit pour google, soit pour un certain nombre de webmasters.

Pour ceux qui me demandent pourquoi je râle. Non je râle pas... lol
C'est juste une reflexion et rien de plus.

forty a dit:
merci mais c'est pas la peine d'en rajouter pour obtenir un régime de faveur ;)
s'il a été proposé il y a moins d'une semaine oui : j'arrive pas a résorber la longue file d'attente.

Je rajoute rien du tout, arrête de te faire des idées. Je pense qu'il a du passer à la trappe car je l'ai soumis
il y a plusieurs semaines maintenant. :)
 
WRInaute discret
Je ne suis pas un pro de la question (j'évolue dans une thématique peu concurrentielle).

Mais je ne vois pas ce que les annuaires apportent à google. Ce sont des liens sollicités par les webmasters et donc qui n'apportent aucune information sur la qualité du site en question. Je ne vois donc pas pourquoi google ne continuerait pas dans cette voie pour limiter leur influence. De plus comme l'a dit leonick, ça a plutôt tendance à fausser les résultats de recherche.
Voilà ce sont quelques interrogations de débutant :?
 
Discussions similaires
Haut