Bonjour,
J'ai mis en place un robots.txt il y deux semaines, et il n'a toujours pas été pris en compte.
En effet, je souhaitais faire desindexer des pages déjà indexées dans google, j'ai donc utilkisé ce code :
User-agent: Googlebot
Disallow: /repertoire
Pour supprimer toutes les pages associées à ce répertoire.
Mais elles sont tjs dans l'index ...
Est-ce normal ? Le code est-il correct ? Faut-il indiquer le fichier à google ?
Merci.
J'ai mis en place un robots.txt il y deux semaines, et il n'a toujours pas été pris en compte.
En effet, je souhaitais faire desindexer des pages déjà indexées dans google, j'ai donc utilkisé ce code :
User-agent: Googlebot
Disallow: /repertoire
Pour supprimer toutes les pages associées à ce répertoire.
Mais elles sont tjs dans l'index ...
Est-ce normal ? Le code est-il correct ? Faut-il indiquer le fichier à google ?
Merci.