Nouveau WRInaute
Bonjour,
Nous avons récemment ajouté un sitemap à notre site web. Pour vérifier que ce sitemap ne posait pas de soucis, je suis allé voir aujourd'hui dans la search console et tout fonctionne bien - ou presque.
En effet, j'ai dans mon sitemap des URL qui sont indiquées comme étant bloquées dans le robot.txt.
Jusqu'ici rien d'inquiétant, ça ne concerne "que" 63 URL sur nos presque 2000 pages.
Cependant, certaines URL bloquées ne le sont pas explicitement dans le robots.txt.
Je prends l'exemple d'une URL /eclairage/1235-boitier-de-commande-centralise-brio-rc.html
qui est pourtant bloquée par notre robot.txt et je n'en comprends pas la raison.
Pour idée, notre robots.txt indique ceci comme étant l'origine de l'erreur : Disallow: /*commande (via le site https://www.google.com/webmasters/tools/robots-testing-tool ).
Pouvez-vous m'aider sur cette problématique ?
Merci d'avance !
Nous avons récemment ajouté un sitemap à notre site web. Pour vérifier que ce sitemap ne posait pas de soucis, je suis allé voir aujourd'hui dans la search console et tout fonctionne bien - ou presque.
En effet, j'ai dans mon sitemap des URL qui sont indiquées comme étant bloquées dans le robot.txt.
Jusqu'ici rien d'inquiétant, ça ne concerne "que" 63 URL sur nos presque 2000 pages.
Cependant, certaines URL bloquées ne le sont pas explicitement dans le robots.txt.
Je prends l'exemple d'une URL /eclairage/1235-boitier-de-commande-centralise-brio-rc.html
qui est pourtant bloquée par notre robot.txt et je n'en comprends pas la raison.
Pour idée, notre robots.txt indique ceci comme étant l'origine de l'erreur : Disallow: /*commande (via le site https://www.google.com/webmasters/tools/robots-testing-tool ).
Pouvez-vous m'aider sur cette problématique ?
Merci d'avance !