Nouveau WRInaute
Bonjour,
Sur un site, j'avais de nombreux duplicate que j'ai progressivement éliminés en modifiant mon robots.txt.
Quelques mois plus tard, toutes ces pages concernées apparaissent toujours dans l'index de Google lorsque je choisis d'inclure les pages ignorées dans les résultats de recherche.
Ils apparaissent dans les SERP sans snippet, sans titre, sans description, donc l'effet de mon robots.txt est correct.
Par contre, j'ai peur que ces pages soient toujours prises en compte dans le cadre de la détection du duplicate content, puisqu'elles sont toujours dans l'index. Votre avis ?
Sur un site, j'avais de nombreux duplicate que j'ai progressivement éliminés en modifiant mon robots.txt.
Quelques mois plus tard, toutes ces pages concernées apparaissent toujours dans l'index de Google lorsque je choisis d'inclure les pages ignorées dans les résultats de recherche.
Ils apparaissent dans les SERP sans snippet, sans titre, sans description, donc l'effet de mon robots.txt est correct.
Par contre, j'ai peur que ces pages soient toujours prises en compte dans le cadre de la détection du duplicate content, puisqu'elles sont toujours dans l'index. Votre avis ?