WRInaute occasionnel
Salut à tous,
Je cherche à supprimer des pages de l'index de Google à partir du fichier robot.txt.
Exemple /page-de-mon-site existe aussi en
/page-de-mon-site?p=2
/page-de-mon-site?p=3
/page-de-mon-site?p=4
J'ai donc indiqué dans le fichier robots.txt :
Disallow: /page-de-mon-site? pour supprimer de l'index les pages qui provoquent du contenu dupliqué.
Mais après dix jours et la certitude dans Google Webmaster Tools que Google a bien pris en compte le nouveau fichier robots.txt contenant ces indications, les pages sont toujours dans l'index.
La mise à jour de l'index ne se fait peut-être pas dès la prise en compte du fichier robot.txt ?
Je cherche à supprimer des pages de l'index de Google à partir du fichier robot.txt.
Exemple /page-de-mon-site existe aussi en
/page-de-mon-site?p=2
/page-de-mon-site?p=3
/page-de-mon-site?p=4
J'ai donc indiqué dans le fichier robots.txt :
Disallow: /page-de-mon-site? pour supprimer de l'index les pages qui provoquent du contenu dupliqué.
Mais après dix jours et la certitude dans Google Webmaster Tools que Google a bien pris en compte le nouveau fichier robots.txt contenant ces indications, les pages sont toujours dans l'index.
La mise à jour de l'index ne se fait peut-être pas dès la prise en compte du fichier robot.txt ?