3 solutions au choix à la duplication de contenu

Nouveau WRInaute
Mon site a chuté de 90% en 2008 à l'époque où les filtres "duplicate content" a été mis en place par google.

C'est un blog qui parle de montre et aussi affiche des catalogues issus de boutique en affichant une page par marque et pour chaque produit une page détail.
Sur les pages détail des produits, le titre de la page et la description du produit est dupliqué avec d'autre site qui utilise les même catalogues que moi.

A votre avis quel est la meilleure solution parmi les 3 proposées ci-dessous?

1/ Je supprime les pages détails.
Pour voir la description issu du catalogue, il faudra aller sur la page des produits d'une même marque et passer la souris sur une des photos.
L'affichage du descriptif se fera via ajax avec un aller-retour serveur et une lecture de base de donnée.

2/ Je définis la page détail en no-index;
lorsque les pages détail auront disparu de l'index, est-ce que google ne verra plus la duplication de contenu?

3/Sur la page détail, je supprime le titre, la description et la re-écriture d'url (déterminé à partir du titre).
J' utilise ajax pour afficher les infos sur le produit lorsque la souris passe sur la photo.
Le problème dans cette dernière solution est que toutes les pages détail de la même marque de montre sont identique (duplication de contenu interne au site : c'est peut-être moins grave)

Je suis ouvert à d'autre solution sauf écrire les descriptif à la main ce que je fais déjà en parti mais n'est pas possible vu la taille du catalogue.
 
WRInaute impliqué
je dirais la seul bonne solution est la seul que tu ne veux pas ;) désolé
 
Nouveau WRInaute
Pourquoi est-ce que la seule solution?
Est-ce que par exemple, le fait de placer ma page en no-index n'élimine t-il pas le "duplicate content" pour google?
Pourriez-vous préciser ce qu'il est reproché aux 3 solutions proposées?
 
WRInaute accro
tatoche70 a dit:
Est-ce que par exemple, le fait de placer ma page en no-index n'élimine t-il pas le "duplicate content" pour google?

Ah ça c'est sûr: il n'y aura plus de duplicate content... puisque ta page ne sera pas indexée. :roll:
 
Nouveau WRInaute
Si vous me confirmez que le no-index sur les pages dupliquée annule ma pénalité, je n'hésiterai pas à l'ajouter.
Je ne retrouverai pas le trafic d'antan mais je l'améliorerai tout de même.
Tout cela bien sûr en supposant que mon analyse est bonne et que la baisse de trafic vienne de la duplication de contenu.

En effet, actuellement, lorsque je tape le nom de mon site, je tombe sur des sites qui parle de celui-ci.
Mon site lui n'arrive qu'en 6ème page.
Il semble qu'il soit pénalisé par google. J'ai plus de visite sur bing ou yahoo.
 
WRInaute accro
No index reste le plus approprié là car sinon tu proposes de créer des pages totalement vides, donc... Soit tu réécris, soit tu passes en noindex.
 
WRInaute occasionnel
Bonjour,

Si se sont les descriptions qui posent problèmes, tu peux essayer des mises en forme différentes.
Google semble sensible à l'ordre des phrases etc..
Donc tu peux essayer de coder un script pour avoir un rendu différents.
Exemple, au lieu d'avoir un bloc de texte linéaire, essayer quelque chose comme:
Détails du produit :
Poids du produit :
Taille du produit :

etc.. Dans certains cas s'est jouable.
 
WRInaute accro
L.Jee a dit:
No index reste le plus approprié là car sinon tu proposes de créer des pages totalement vides, donc... Soit tu réécris, soit tu passes en noindex.

noindex, c'est non seulement du suicide SEO (positionnement nul, linking interne stérile), mais en plus c'est un aveu d'échec. Je suis contre, à 100%.

J'ai retravaillé 30.000 pages en 2 mois: quand on veut... ON PEUT !
 
WRInaute accro
Je ne suis pas pour non plus, tu sais le nombre que j'en ai retravaillé ;) Mais bon, si il ne le souhaite pas, le noindex reste la meilleure solution, tu n'es pas d'accord ? Il a le choix entre ça ou des pages indexables totalement vide...
 
WRInaute accro
T'inquiètes pas, je sais que tu t'es arraché les cheveux, et je sais ce que c'est pour m'en avoir arraché quelques uns aussi :mrgreen:

Je comprends bien que son choix est de ne pas réécrire... mais son choix est le mauvais choix.
Le contenu d'un site reste et restera longtemps la clé de voûte du positionnement.

Se couper un bras en collant du noindex sur les contenus dupliqués ne lui fera rien gagner: les pages sont déjà pénalisées - à quoi bon les virer d'un index où elles ne s'affichent déjà plus ?

>> y'a pas d'autre vraie solution que d'y bosser. Quitte à mettre un stagiaire dessus... :D
 
WRInaute accro
Se positionner sur la home et les catégories c'est déja mieux que rien. Et en l'a jouant fine il peut l'utiliser son contenu, mais va falloir analyser un peu ce filtre et être joueur, mais c'est largement jouable ;)
 
WRInaute accro
Je n'ai pas lu que sa home avait perdu en positionnement sur ses requêtes de tête :roll:

Jusqu'ici et avec le peu de détails communiqués, pour moi, c'est un site qui a perdu sur les requêtes long tail (Mayday, plus que certainement).
S'il se fait kill sur ses pages détail... et pas sur les autres, ce n'est pas en les sacrifiant qu'il remontrera.

>> Bosser l'opti des pages profondes - quitte à réécrire le contenu. Pas d'autre solution à mon sens.
 
WRInaute accro
En 10 secondes de lecture du premier message tu as ça :
Mon site a chuté de 90%

Tu sais très bien que 90% de chute c'est une chute totale du site surtout pour duplicate...

Je pense que ça résume toutes les réponses à ton message que j'aurai faites :D
 
Nouveau WRInaute
Effectivement la "home page" a chuté comme le reste.
Même sur le nom du site, la page d'accueil arrive en 6ème position.
Et je ne parle pas des mots sur lesquels la "home page" était numéro 1 ou en première page.

Il y a du contenu unique sur le site car c'est un blog avec 200 articles d'information.

La duplication est sur des pages produits de présentation de collection.
Je compte mettre noindex sur la plupart des pages produit. Cela représente 20000 pages qui n'apparaissent presque pas lorsque je tape la commande "site:www.xxx.com".


Par ailleurs, je saisis certaines descriptions à la main.
Dans ce cas, je ne met pas de noindex.

Si les pages produits ne sont pas indexés, je perdrai peut-être par rapport à l'époque où le "duplicate content" n'était pas détecté.
Je ne retrouverai pas le trafic d'avant.

En revanche, je ne serai plus pénalisé et remonterai peut-être sensiblement.
Aujourd'hui je suis à -90%, si je retrouve 50% des visites d'avant pénalité, je suis content.

En outre, 150 articles ont été ajouté depuis lapénalité. Cela ne compense pas les 200000 pages produits
mais il me semble qu'une article long vaut mieux qu'un simple descriptif produit.
 
Discussions similaires
Haut