Bonjour,
Il y a t-il une explication à ce que GSC ne tienne pas compte des commandes Allow dans le robots.txt alors que officiellement il reconnait cette instruction ?
En effet j'ai mis 5 lignes/URL Allow en début de fichier robots.txt, par la suite il y a un Disallow avec un masque qui concerne plsueirus centaines d'URL : c'est pour cela que je veux utiliser Allow
puis j'ai créé un sitemap avec ces 5 URL : le but étant de les désindexer plus vite
et ce matin GSC me dit qu'il y a 5 URL dans la catégorie "couverture>URL envoyée bloquée par le fichier robots.txt" !!??
Il y a t-il une explication à ce que GSC ne tienne pas compte des commandes Allow dans le robots.txt alors que officiellement il reconnait cette instruction ?
En effet j'ai mis 5 lignes/URL Allow en début de fichier robots.txt, par la suite il y a un Disallow avec un masque qui concerne plsueirus centaines d'URL : c'est pour cela que je veux utiliser Allow
puis j'ai créé un sitemap avec ces 5 URL : le but étant de les désindexer plus vite
et ce matin GSC me dit qu'il y a 5 URL dans la catégorie "couverture>URL envoyée bloquée par le fichier robots.txt" !!??