Nouveau WRInaute
Bonjour,
Nous exploitons un site e-commerce avec plusieurs centaines de produits.
La plupart des pages produits sont en duplicate sur d'autres sites qui ont repris au mot près les mêmes descriptions (affiliés et comparateurs de prix).
Nous pourrions réécrire chaque description, mais ça prendrait plusieurs semaines, voire plusieurs mois. Nous avons donc mis cela de côté pour le moment.
Nous avons plutôt pris la décision de bloquer l'accès à nos pages produits via le fichier robots.txt, pour que Google ne les crawle pas, et ne nous pénalise pas pour contenu dupliqué.
Pour optimiser le budget de crawl, devrions-nous également ajouter un rel="nofollow" sur les liens internes vers chaque produit, dans les pages de listing (ainsi que les pages des résultats de recherche) ?
Merci de votre aide.
Nous exploitons un site e-commerce avec plusieurs centaines de produits.
La plupart des pages produits sont en duplicate sur d'autres sites qui ont repris au mot près les mêmes descriptions (affiliés et comparateurs de prix).
Nous pourrions réécrire chaque description, mais ça prendrait plusieurs semaines, voire plusieurs mois. Nous avons donc mis cela de côté pour le moment.
Nous avons plutôt pris la décision de bloquer l'accès à nos pages produits via le fichier robots.txt, pour que Google ne les crawle pas, et ne nous pénalise pas pour contenu dupliqué.
Pour optimiser le budget de crawl, devrions-nous également ajouter un rel="nofollow" sur les liens internes vers chaque produit, dans les pages de listing (ainsi que les pages des résultats de recherche) ?
Merci de votre aide.