Duplicate content "?p=..." et robots.txt

Nouveau WRInaute
Bonjour à tous,

J'ai actuellement un problème de duplicate content sur des pages catégories. Cela concerne les pages suivants la première (2,3,4....) d'une catégorie. Seule la première page est indexée mais les autres sont quand même explorées.

J'ai pensé à bloquer le crawl dans le robots.txt avec un dissalow "/*?p=" mais google va probablement comprendre qu'il n'y a moins de produits et va probablement sous estimer ma page. Je souhaite garder la description sur chaque page dans un souci d'UX.

Comment expliquer à Google que ce contenu est forcément identique puisqu'il concerne toujours la même catégorie sans bloquer les robots afin de leur montrer que je n'ai pas qu'une seule page de produits.
 
Nouveau WRInaute
Merci, j'ai effectivement un module d'urls canoniques. Le problème étant que j'ai uniquement accès au Prestashop et non aux fichiers du site. Si je mets l'url canonique principale sur ma catégorie dans prestashop, cela l'appliquera également sur toutes les pages suivantes/p=... ?
 
Olivier Duffez (admin)
Membre du personnel
ça s'appelle de la pagination et il ne faut pas faire l'erreur consistant à indiquer comme canonique l'URL de la 1ere page

mon conseil est identique à celui de Google : laisser crawlables et indexables les pages 2, 3 et suivantes
mais je précise : il faut tout faire pour limiter le recours à la pagination, car c'est une très mauvaise solution (UX et SEO).

lectures recommandées :
 
Discussions similaires
Haut