Bonjour à tous ,
Je reviens vers vous car il y a une semaine j'ai mis en place un Prestashop et fait les paramétrages dans GSC. Et bien sûr j'ai un problème. Dans le tableau d'analyse du GSC, on me dit que plus de 200 URLS (30% du site) sont bloqués par le Robot.txt par contre quand je les testes dans l'"Outil de test du fichier robots.txt", il me dit que ces mêmes URLS sont autorisés...un peu déroutant....
Mon Robots.txt et pourtant je n'ai pas de problématique particulière. J'ai un robots.txt standard, j'ai juste ajoutés des lignes pour ne pas pas autorisé le crawl sur les URls en langue étrangères ( le no-index pour la forme) car les langues sont active mais je ne les utilise pas encore. Et enfin 2 URLs pas utiles pour éviter les contenus redondants....
Les lignes que j'ai rajouté dans le robot TXT...
----
# Files
Disallow: /en
Noindex: /en
Disallow: /de
Noindex: /de
Disallow: /ru
Noindex: /ru
Disallow: /es
Noindex: /es
# Customise
Disallow: /*fr/brand/
Disallow: /*fr/nos-marques/
----------------------
Avez-vous une idée pourquoi, d'un coté Google me dit que c'est bloqué ( depuis la plateforme GSC) et de l'autre les URLS sont autorisées ( depuis l'Outil test Robot.txt de GSC) ?
Merci pour vos retours !
Je reviens vers vous car il y a une semaine j'ai mis en place un Prestashop et fait les paramétrages dans GSC. Et bien sûr j'ai un problème. Dans le tableau d'analyse du GSC, on me dit que plus de 200 URLS (30% du site) sont bloqués par le Robot.txt par contre quand je les testes dans l'"Outil de test du fichier robots.txt", il me dit que ces mêmes URLS sont autorisés...un peu déroutant....
Mon Robots.txt et pourtant je n'ai pas de problématique particulière. J'ai un robots.txt standard, j'ai juste ajoutés des lignes pour ne pas pas autorisé le crawl sur les URls en langue étrangères ( le no-index pour la forme) car les langues sont active mais je ne les utilise pas encore. Et enfin 2 URLs pas utiles pour éviter les contenus redondants....
Les lignes que j'ai rajouté dans le robot TXT...
----
# Files
Disallow: /en
Noindex: /en
Disallow: /de
Noindex: /de
Disallow: /ru
Noindex: /ru
Disallow: /es
Noindex: /es
# Customise
Disallow: /*fr/brand/
Disallow: /*fr/nos-marques/
----------------------
Avez-vous une idée pourquoi, d'un coté Google me dit que c'est bloqué ( depuis la plateforme GSC) et de l'autre les URLS sont autorisées ( depuis l'Outil test Robot.txt de GSC) ?
Merci pour vos retours !