Duplicate content évitable ?

WRInaute discret
Bonjour à tous,

J'ai un petit problème de duplicate content, voici le contexte :
Mon site web est axé B2C, notre contenu est destiné au grand public, mais en parallèle nous fournissons aussi ce contenu à divers partenaires en B2B.

Je suis donc confronté à un problème de duplicate content, le contenu fournit aux partenaires pouvant être assimilé à du contenu dupliqué.

J'ai fait une petite recherche sur le site avant de créer ce sujet, j'ai pu trouvé des liens très interessants qui testent le pourcentage de similarité entre les sites dupliqués, mais cela m'amène à 3 questions :
- En général, la similarité entre les différentes version varie entre 30% et 40%. Cela me semble assez élévé, mais malheureusement je n'ai aucun point de comparaison pour pouvoir juger si un tel pourcentage rentre dans les critères de duplicate content selon google. Qu'en pensez-vous ?

- si j'utilise la balise "canonical" sur mon site pour indiquer à Google que mon contenu est celui à référencer, ai-je un risque d'empecher le référencement du contenu similaire par mes partenaires ?

- Pour déscendre le % de similartié, j'ai déjà modifié le titre et les metas, savez-vous si je change la mise en forme HTML de la page, est-ce que ça peut avoir un impact sur la similarité ou es-ce que google ne tient compte que du contenu lui même ?

Le but que je cherche à atteindre serait que le contenu ne rentre pas dans le cadre d'un duplicate content, bien entendu le contenu étant en grande partie identique, je sais que les version B2B et la version B2C du site vont se faire concurrence pour le référencement, mais en gros j'aimerais qu'elles ne se fassent pas plus concurrence que si le contenu des sites était différent mais sur un sujet similaire.
 
WRInaute discret
Merci pour ta réponse !
C'est idéal, bien entendu, mais la difficulté est que cela nécessiterait de re-rédiger plus de 5000 pages qui représentent chacune environ 10 000 caractères. Ce serait un travail de titan, je cherche donc plutôt à limiter les dégats du duplicate content puisque la solution parfaite n'est pas réalisable (du moins dans l'immédiat).
 
WRInaute discret
le truc normale c'est de donner quelques lignes et lire la suite avec un lien vers l'article source....sinon c'est duplivate content assuré
 
WRInaute discret
beloute a dit:
le truc normale c'est de donner quelques lignes et lire la suite avec un lien vers l'article source....sinon c'est duplivate content assuré
même avec votre proposition, il risque d'être blaklisté ( moi j'ai eu ce pb avec mes sites)
 
WRInaute discret
Merci à tous pour vos réponses.
Si la seule solution est de rédiger un nouveau contenu, cela ne m'arrange pas du tout :cry:
Je suis surpris qu'il n'y ait pas d'autre solution, avec tous les sites qui fournissent du RSS, il devrait y avoir une quantité énorme de sites blacklistés qui utilisent ces flux ? Du moins, j'espèrerais qu'il y avait un moyen de limiter le problème.

Par rapport au pourcentage du contenu similaire, 30% vous pourrait-il un chiffre raisonnable ou beaucoup trop élevé ?
Je suppose que le but d'obtenir un pourcentage de similarité est d'ensuite de tenter de le baisser le plus possible.

azizdemrk a dit:
même avec votre proposition, il risque d'être blaklisté ( moi j'ai eu ce pb avec mes sites)
Etais-tu parvenu à résoudre ce problème à l'époque ?

Question un peu bête qui me vient à l'esprit, en cas de duplicate content, est-ce la page qui est dupliquée qui se retrouve blacklistée ou alors carrement le site sur lequel elle figure ? A mon avis c'est la page elle même (au même titre que le duplicate content diminue le page rank d'une même page), mais je préfère m'en assurer, sinon c'est la catastrophe !
 
WRInaute discret
Merci pour ta réponse !

Dans mon cas :
- les urls des sites sont écrites de manières différentes (puisqu'elles sont rewritées, elles ne sont jamais écrite de la même manière chez-nous ou les partenaires qui les utilisent)
- l'herbégement des sites est différent, nous ne partageons même pas la classe d'adresse IP
- les sites ont des propriétaires différents.

J'aurais tendance à penser que cela prouve bien qu'il ne s'agit pas d'une tentative de spam. J'espère donc que ce que je risque est un délclassement (j'ai cru comprendre qu'en cas de duplicate content, google tranchait lui même pour choisir un seul site qui affiche le contenu), et non pas un blacklistage de mon site.
Qu'en penses-tu ?
 
WRInaute discret
Envoyé en MP :)

Pour le moment je n'ai pas encore constaté de problème de blacklistage, il y a pas encore énormement de partenaires qui ont rendu le contenu que nous leur fournissons accessible, mais si c'est le cas le problème va se poser, j'essaye donc de me renseigner sur les solutions possibles avant de me retrouver face au problème.
 
WRInaute discret
moi perssonellement j'avais deux sites duplicé une fois j'ai fait tomber l'au pour l'autres je me suis directement booster mon positionnement

et le traffic a doubler :twisted:
 
WRInaute discret
Pour le contenu dupliqué "classique" du aux urls avec ou sans "www" etc, on est en train de corrigé le problème, j'espère que cela aura effectivement une incidence. Par contre pour les versions dupliqués qui sont dues à la fourniture de contenu, c'est délicat lorsque l'on fait à la fois du B2B et du B2C. On ne peut pas empécher des clients à qui ont fourni du contenu de se faire référencer :( j'espère juste que ça n'entrainera pas de blacklistage ni pour eux ni pour nous.
 
WRInaute accro
Matthieu_s a dit:
Pour le contenu dupliqué "classique" du aux urls avec ou sans "www" etc, on est en train de corrigé le problème, j'espère que cela aura effectivement une incidence. Par contre pour les versions dupliqués qui sont dues à la fourniture de contenu, c'est délicat lorsque l'on fait à la fois du B2B et du B2C. On ne peut pas empécher des clients à qui ont fourni du contenu de se faire référencer :( j'espère juste que ça n'entrainera pas de blacklistage ni pour eux ni pour nous.


On se fout de l'adresse en fait ... c'est juste le contenu et quelques mots suffisent. En plus, on parle pas de backlistage, à moins de n'avoir un contenu quasiment duppliqué sur toutes les pages, ce n'est pas le site qui saute, juste les pages (j'avoue entrainant des baisses aussi sur des grosses recherches).
 
WRInaute discret
Merci pour ta réponse.

J'avais lu que le nom de domaine avait une importance, par exemple la version avec ou sans www de l'URL ou alors les sites qui ont plusieurs nom de domaine (l'un en .FR l'autre en .COM par exemple). Je ne sais pas si ça a réellement une importance, mais dans le doute nous avons fait les modifs nécessaires.

C'est déjà rassurant que nous ne risquions pas un blacklistage, par contre si seuls quelques mots suffisent pour rentrer dans la condition de duplicate content, alors c'est imparable car la similitude du contenu tourne à 30% avec nos sites partenaires.
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut