Référencement naturel : une page quasi similaire par ville => duplicate content ?

WRInaute discret
Bonjour,

Je fais un audit de son site web pour un de mes clients. C'est un artisan qui travaille sur plusieurs villes de la région. Il a donc créé une page "modèle" avec un texte et ensuite, il a copié ce texte en changeant juste le nom de la ville avec une nouvelle page par ville. Et dans chaque bas de page, il met un lien vers toutes les autres villes.

Je trouve pas ça terrible, autant esthétiquement pour l'utilisateur qui voit le site que pour le référencement, car si je comprends le duplicate content vu par google, il semble que sur un tel cas, google ne garde qu'une seule page. Mais duplicate content sous entend que 100% du contenu est identique, et ce n'est pas le cas puisque le nom de la ville change.

Je pensais lui dire de plutôt créer une page avec son contenu et le nom de toutes les villes et ensuite de créer d'autres pages avec du contenu de qualité qui le fera remonter plus facilement.

Mais quand j'analyse la concurrence, la plupart de ses concurrents ont une architecture comme la sienne et ceux qui la poussent aux limites sont les premiers...

Qu'en pensez vous ?

Merci
Bastien
 
WRInaute discret
Bon, je me réponds à moi-même en ajoutant un extrait de ce qu'on trouve dans les bonnes pratiques google :

http://support.google.com/webmasters/bin/answer.py?hl=fr&answer=66359

Extrait :
Limitez les contenus similaires : si de nombreuses pages de votre site sont similaires, développez chacune d'entre elles ou regroupez-les pour n'en faire qu'une seule. Par exemple, si votre site de voyages présente des pages distinctes pour deux villes, mais que celles-ci comportent des informations identiques, regroupez les informations sur les deux villes sur une seule page ou développez chaque page afin qu'elles contiennent des informations bien différentes

Ca rejoint mon opinion de l'architecture du site.

Mais ça me dit pas pourquoi les concurrents qui ne suivent pas cette règle, mais sont plutôt à l'opposé, sont mieux référencés... Du moins, j'en ai l'impression.

Bastien
 
WRInaute discret
Le spam sur ville fonctionne sur de très nombreux sites... je te dirai même pas les suites de mots clés horribles que j'ai vu passer. Je peux aussi te citer un concurrent qui référence ses clients uniquement avec des pages constituées à 100% de liens internes sur les expressions clés visées. Ces centaines de pages sont identiques et il ne varie que la ville dedans. Et je répète, il n'y a pas une ligne qui ne soit pas un auto ahref...

Affreux n'est ce pas? :D Et bien pourtant il ranke ! Derrière moi souvent, mais parfois aussi devant alors que je passe ma vie à créer du contenu (et des backlinks thématisés).

C'est toute la différence entre les guidelines Google et la capacité de l'algo à les traduire au niveau du positionnement. Mais puisque on mise sur l'amélioration de l'outil, autant faire propre du départ. Et du coup, pour l'instant, je n'ai pas mangé de filtre. En espérant que le prochain s'attaque au spam interne :)
 
WRInaute discret
Merci Winsiders pour ton retour.

Je partage ta vision des choses et ta façon de faire. C'est une technique de référencement un peu à la limite comme je le pensais. C'est déjà du black hat ce genre de truc ?

Je pense que je vais expliquer à mon client ma vision des choses avec du contenu propre et de qualité en visant le plus long terme. Que l'autre existe aussi et qu'il soit pas surpris si des concurrents sont aussi bien référencés que lui avec un site horrible mais optimisé pour un algorithme et pas pour un utilisateur. Mais que sur le long terme, ils peuvent se faire dégager par le prochain algo de google.

Bonne nuit et bonne continuation !

Bastien
 
WRInaute accro
Exactement. Selon moi, on agit dans l'intérêt du client sur le référencement naturel en misant sur le long terme. Et sur le long terme tout ce genre de manipulations à la noix finit toujours par tomber.
 
Discussions similaires
Haut