[Retour] Sortir d'une pénalité pour duplicate content

WRInaute accro
Hello,
Un petit retour rapide sur la sortie, pour deux de mes sites, d'une PENALITE pour ce que je pensais être dû à une proportion trop élevée de contenu dupliquée. Cela rejoint ce topic par ailleurs.

Même si certains se plaisent à dire à tout va qu'il n'y a pas de pénalité pour "abus" de duplicate, je sais maintenant qu'ils se trompent et que j'avais vu juste.

Je m'explique. Les deux sites dont je parle aujourd'hui on été pénalisé par Google au courant de l'année 2008 et je n'avais pas pris la peine pour ces deux là de nettoyer le contenu comme j'ai pu le faire avec d'autres. J'ai donc mis un coup de propre au niveau du contenu en supprimant les pages incriminées et dupliquées ailleurs. Et là, comme par magie, les deux sites sont de retour dans les SERP et ont repris leur vie, le même jour !

Une chose amusante, le nettoyage fût terminé le 1er Février et les sites sont ressortis dans les SERP le 1er Mars (coïncidence je pense).

Alors, vous pensez toujours que Google ne pénalise pas certains sites à cause du duplicate ? :mrgreen:
 
WRInaute passionné
Félicitation à tes sites qui repartent de plus belle ! J'espère que tu ne regrettera pas mon conseil de nettoyer ces sites ;) Et encore merci pour ton expérience sur le redressement du duplicate qui a apporté énormément au marché SEO français.
 
WRInaute passionné
Euh. Ici il confirme surtout qu'il y a moyen d'en sortir.

et cela, après (environ) 1 mois, très bon à savoir.

merci LJee !
 
WRInaute accro
1-sponsor a dit:
Félicitation à tes sites qui repartent de plus belle ! J'espère que tu ne regrettera pas mon conseil de nettoyer ces sites ;)
Ca m'ennuie un peu comme tu le sais, mais je suis sur mtn du pourquoi de ces pénalités ;)

Merci pour ce retour d'expérience qui confirme que Google pénalise le contenu dupliqué.
Mais surtout qu'outre le fait de filtrer les pages dupliquées, il met le site à l'écart si trop de contenu dupliqué (ne pas généraliser à tous les sites cependant).
 
WRInaute passionné
L.Jee a dit:
Ca m'ennuie un peu comme tu le sais, mais je suis sur mtn du pourquoi de ces pénalités ;)

Je sais, mais dans des cas extrêmes comme cela, autant se dire : Les affaires sont les affaires. Quand je vois le branlée d'annuaires sanctionnés qui restent hébergés et qui ne servent à rien : écœurant.

L.Jee a dit:
(ne pas généraliser à tous les sites cependant).
Oui, recadrons !
C'est surtout les annuaires, les sites de communiqués pleins de DC, les boutiques e-commerces qui pompent les description de sites existants, sans doute les digg like (edit : agrégateurs de flux) etc... Du fort DC, et pas quelqu'un qui copie 3 lignes de wikipedia.
 
WRInaute passionné
Oui, mais en même temps, si on suit la logique de "paternité", c'est normal qu'il y ait UN annuaire (pour le cas des annuaires) qui survive et qui soit considéré comme LA source originale de toute cet amas de DC (contenu que google doit tout de même juger pertinent, mais en un seul exemplaire). Sélection naturelle imprévisible. Je vois bien à quoi tu pense ;) On va bien voir dans les mois à venir qui va gagner le match final :D Les paris sont ouverts héhé :D
 
WRInaute accro
Je ne pensais pas à cela non plus. Il y a de nombreux sites en dehors des annuaires qui sont concernés par ce filtre comme les sites d'actu qui reprennent tous l'info mais qui pour autant ne craignent rien.
 
WRInaute passionné
Peut être un taux de DC inférieur à 10% sur le domaine, ou, peut-être un lien directe entre la "pénalité" et la présence de "liens externes" signe de tentative de donner du poids au site lié.

Edit.

Faut aussi différencier DC et DC.

DC léger : Mon site affiche du contenu déjà présent sur 2 ou 3 autres sites de qualité.
DC grave : Mon site affiche du contenu déjà présent sur de nombreux autres sites douteux.

Sanction ? Dans le cas où l'on a un bon 10% de notre contenu en DC grave.

© mes conclusions suite aux différents retours de LJee ;)

Donc, peut-être que sur ces sites d'actu. auquel tu penses, il s'agit de DC léger.
 
WRInaute occasionnel
L.Jee, penses-tu que :
- des sites avec duplicate (pages en DC qui pourtant sont dotées de PR et bien positionnées) ,
- qui ne sont pas sanctionnés, comme les tiens ont pû l'être,
trouveraient un avantage à supprimer toutes les pages en question ?
 
WRInaute accro
J'ai pas bien compris ta question. En gros tu me demandes si je trouverai judicieux de supprimer des pages dupliquées mais qui marchent très bien pour améliorer "la confiance" du site envers Google ?

Je ne sais guère que répondre. Si ces pages t'amènent vraiment des visiteurs ou qu'elles plaisent vraiment, garde les. Sinon vire les et tu verras bien (tu nous tiens au jus si tu fais ça).

A ta place je les laisserai ;)
 
WRInaute occasionnel
Merci pour ta réponse :wink: !

En fait, après des divers avis collectés ici et là, j'ai pris le parti suivant :

Pour les pages dupliquées en grand nombre , sans PR et mal positionnées >> suppression
Pour les pages avec un DC plus faible, avec PR et moyennement positionnées >> réécriture des textes
Pour les pages avec DC, quelque soit son importance, avec PR et dans les tous 1ers dans les SERP >> pas de modif

On verra bien.

PS : le problème du site concerné :
Le problème majeur est la non-indexation des nouvelles pages depuis plus d'un mois (GG les garde sous le coude, les rares récemment indexées affichent une date de cache correspondant à la date de mise en ligne)
 
WRInaute accro
Suite à ton message, j'ai lancé un test sur mon site principal qui plafonne depuis quelques mois. Je me suis rendu compte d'un duplicate involontaire (j'avais oublié un noindex sur l'ensemble de mes pages "imprimer l'article xxx").

Je vous dirai ce que ça donne une fois les URL désindexées ;)
 
WRInaute passionné
Il faudrait épingler cette procédure : :wink:

abouvard a dit:
Pour les pages dupliquées en grand nombre , sans PR et mal positionnées >> suppression
Pour les pages avec un DC plus faible, avec PR et moyennement positionnées >> réécriture des textes
Pour les pages avec DC, quelque soit son importance, avec PR et dans les tous 1ers dans les SERP >> pas de modif
 
WRInaute discret
Salut, c'est vraiment interessant de voir des sites sortir de pénalité.

J'ai une question Lee, qu'appelle tu exactement duplicate content?

Des pages dupliquées sur un meme site? exemple monsite.com/page1.html et monsite.com/page2.html sont identiques...ou bien est ce que tu parles d'une page dupliquée sur un autre site? exemple monsite.com/page1.html et unautresite.com/page2.html sont identiques?

Je pense que tu parles ici de duplicate entre les pages d'un même site, et j'ai alors une question plus précise.

Disons que mon site parler de football. Penses tu que si j'ai des urls de catégories comme monsite.com/ligue1/ et monsite.com/videos/ligue1/ cela puisse poser un problème si le contenu est plutot faible dans les deux catégories?
 
WRInaute accro
Non je parle de textes dupliqués sur d'autres sites, pas de l'interne. Le duplicate interne n'entrainera jamais une chute du site dans les SERP.
 
WRInaute discret
Ok merci,

Le flux rss de l'un de mes sites pénalisé est repris sur beaucoup d'autres sites. Penses tu que cela peut être négatif?

Il était dans beaucoup d'annuaire (j'ai fait supprimé). Et il est également sur compare-le-net qui d'apres ce que j'ai lu fait beaucoup de duplicate. Penses tu que cela peut être négatif également?

Merci pour ton temps
 
WRInaute accro
L.Jee a dit:
Non je parle de textes dupliqués sur d'autres sites, pas de l'interne. Le duplicate interne n'entrainera jamais une chute du site dans les SERP.
En es tu sur ? As tu déjà fait des tests ? Car je suis justement en train d'en faire et je pense que le DC interne peut faire pas mal de tort également.
D'ailleurs on ne dit pas de rediriger -http://site.zob vers le www pour rien ;)
 
WRInaute accro
Le jour ou tu verras un domaine pénalisé (-95% de traf via Google) parce qu'il a des pages qui ont plusieurs URL, tu me fais signe :D

Non sérieux, ça peut entraver, on va dire, le flux de jus au travers du site, mais ça ne le pénalisera jamais comme je le montre ici.

@Webmaster 87 : Oui, je pense que c'est nocif si ton site n'a pas les épaules pour le supporter. Regarde sur Google qui ressort pour une phrase reprise dans le flux et ce pour tes 10 derniers articles et tu verras si c'est toi ou quelqu'un d'autre. Ensuite regarde qui sort dans les SERP pour l'expression ciblée avec ton article et tu verras si tu y es ou si c'est celui que tu vois avec la phrase. Dans ce cas, ce serait bien de ne plus utiliser cet outils ;)
 
WRInaute discret
Merci pour ta réponse.

En effet 2 ou 3 agrégateurs de flux rss ont un meilleur positionnement que mon site pour requêtes liés à mes articles.

Je pensais que c'était la conséquence de mon déclassement mais cela pourrait en être la source en fait.

Je crois que au point ou j'en suis le plus simple serait presque que je supprime mon flux...Ou alors ce qu'il est possible d'empêcher d'autres sites de reprendre notre flux rss?
 
WRInaute accro
Temporairement oui, ça permettrait déjà d'identifier si cela est la source de ton soucis. Tu me tiens au jus ?
 
WRInaute passionné
milkiway a dit:
L.Jee a dit:
Non je parle de textes dupliqués sur d'autres sites, pas de l'interne. Le duplicate interne n'entrainera jamais une chute du site dans les SERP.
En es tu sur ? As tu déjà fait des tests ? Car je suis justement en train d'en faire et je pense que le DC interne peut faire pas mal de tort également.
...

Bonsoir,
Aurais-tu un exemple ?
 
WRInaute discret
Bonjour,

Pensez vous qu'il faille nécessairement supprimer les pages concernées par un DC, ou un noindex,nofollow pourrait suffire ?
 
WRInaute passionné
Emorej oui j'ai pu faire le test avec un site archi. dupliqué dont une petite centaine de pages uniques étaient en "index, follow" et les pages remplies de duplicates (au moins 20.000) étaient en noindex, nofollow et les pages uniques n'en étaient pas impactées. Ça revient vraiment à dire à Google : « elles n'existent pas ».
 
WRInaute discret
1-sponsor a dit:
Emorej oui j'ai pu faire le test avec un site archi. dupliqué dont une petite centaine de pages uniques étaient en "index, follow" et les pages remplies de duplicates (au moins 20.000) étaient en noindex, nofollow et les pages uniques n'en étaient pas impactées. Ça revient vraiment à dire à Google : « elles n'existent pas ».

Ok, merci. Ca parait logique d'ailleurs.

@L. Jee : as tu fait une demande de réexamen après modifs ou l'algorithme de Google a fait son boulot en temps et en heure ?
 
WRInaute discret
L.Jee a dit:
Je ne demande jamais rien à Google, de toute façon, ils n'en tiennent jamais compte...

Merci. On va laisser faire alors.
Voilà la courbe de mes visites; une dizaine de jours après la mise en place d'une agrégation de flux assez conséquente, il y a eu un plongeon.
courbePenalite.png


Il n'est pas certain que cela en soit la conséquence (j'ai eu aussi des pertes de backlinks par suppression de bannières dans des blogs), mais je viens de mettre toutes les pages concernées en noindex,nofollow.
Je vous tiens au courant si il y a amélioration...
 
WRInaute accro
Si ça coïncide avec ton ajout massif de contenu venu d'ailleurs, il y a tout de même de grande chance pour que cela vienne de là. Tiens nous au jus ;)
 
WRInaute accro
5_legs a dit:
milkiway a dit:
L.Jee a dit:
Non je parle de textes dupliqués sur d'autres sites, pas de l'interne. Le duplicate interne n'entrainera jamais une chute du site dans les SERP.
En es tu sur ? As tu déjà fait des tests ? Car je suis justement en train d'en faire et je pense que le DC interne peut faire pas mal de tort également.
...

Bonsoir,
Aurais-tu un exemple ?

Moi je dois en avoir quelques uns :wink: Le duplicate interne fait moins de dégâts mais en fait quand même.
 
WRInaute accro
Je t'invite à lire la fin, c'est plus orienté DC interne ;)
J'ai pu constater par moi même plusieurs fois les effets du DC interne et je crois qu'Ybet est sur la même piste.
 
WRInaute passionné
@ybet et @milkiway même si je n'ai pour l'heure pas suffisamment d'éléments pour l'étayer, je me demande si le duplicate content interne n'est pas actuellement un facteur de risque (y compris le rapport avec cet article sur le 2 mars) ..
 
WRInaute accro
Donc ça confirmerai nos essais. Il faut que j'ai suffisamment de chiffres pour en proposer l'analyse mais j'ai fait un grand ménage sur les pages de mon site (dont certaines tombaient sous le coup du DC interne), j'attends les résultats.

En même temps, j'ai un peu l'impression qu'on ne va faire qu'ouvrir une porte ouverte : on sait depuis le début que le fait, par exemple, d'avoir un site accessible avec et sans le 'www' est très néfaste justement pour DC interne. Il en va de même pour les URL rewritées et les non rewritées.

Là où mon analyse en cours se porte, c'est sur les pages "majoritairement dupliquées" et non pas exactement identiques.
 
WRInaute discret
Bonjour! un petit nouveau passionné seo :)
Concernant le Duplicate Content, j'ai constaté en faisant des test que de simples oublis techniques pouvaient en être la cause... et surtout le filtre de Google devient de plus en plus strict au point que je me demande s'il n'est pas un peu parano :roll: Mon retour d'expérience bien que minime puisque je ne m'interesse au seo que depuis quelques mois:
-choisir d'emblée l'adresse de son site (avec ou sans www) donc configuration htaccess de rigueur (ça c'est la base anti-dc interne)
-la 404 personnalisée! Et ne surtout jamais rediriger les erreurs 404 vers la home ou une page "indexable" car il suffit que pour l'exemple un site toto.com reçoivent 1million de liens indexés par Google pointant vers des faux liens (toto.com/fauxlien.html) et Google les indexe bêtement en prenant la home 1million de fois... donc si ce n'est déjà fait une 404 personnalisée avec un joli no-index, no-follow et ça évite que n'importe qui s'amuse à couler n'importe quel site en DC
-constat aussi, pour l'exemple toto.com
-j'ai du duplicate content sur une dizaine de pages sur des sites "test" et j'en sors assez rapidement avec cette méthode:
je crée une sorte de page sitemap, (une page de liens interne) mais uniquement contenant des liens vers les pages que Google doit reconsidérer (no-index ajouté ou 301) (ça fait avancer les choses) à chaque fois qu'un problème de DC survient, on identifie et on le corrige avec un sitemap spécial...
C'était ma petite remarque j'espère que ça peut servir à certains sait-on jamais :)
 
Discussions similaires
Haut