GSC ne tient pas compte comande Allow dans robots.txt

WRInaute passionné
Bonjour,

Il y a t-il une explication à ce que GSC ne tienne pas compte des commandes Allow dans le robots.txt alors que officiellement il reconnait cette instruction ?

En effet j'ai mis 5 lignes/URL Allow en début de fichier robots.txt, par la suite il y a un Disallow avec un masque qui concerne plsueirus centaines d'URL : c'est pour cela que je veux utiliser Allow
puis j'ai créé un sitemap avec ces 5 URL : le but étant de les désindexer plus vite

et ce matin GSC me dit qu'il y a 5 URL dans la catégorie "couverture>URL envoyée bloquée par le fichier robots.txt" !!??
 
WRInaute passionné
j'avais déjà fait cela : mais ça ne supprime des résultats que pendant 90 jours
mais 90 jours après GG revient vérifier et comme c'est bloqué par le fichier robots.txt, il fait ré-apparaitre les resultats dans "couverture" en disant "pas accessible .."
 
WRInaute passionné
mais par ce post, je voulais surtout vérifier que d'autres avaient bien constater l'ambiguité qui existe entre le fait que GG lit les Allow mais n'en tient pas compte dans l'interprétation des résultats dans la GSC
 
Olivier Duffez (admin)
Membre du personnel
si ces URL sont désindexées, inutile de se prendre la tête avec les messages de GSC, mieux vaut bosser sur autre chose non ?
 
Discussions similaires
Haut