Bonjour,
Apparement le check du fichier robots.txt est HS sur https://pagespeed.web.dev/ .
Testé sur plusieurs sites : le message est toujours le même : "Le fichier robots.txt n'est pas valide : Lighthouse n'est pas parvenu à télécharger le fichier robots.txt" .
Plusieurs bug signalés ici : https://github.com/GoogleChrome/lighthouse/issues?q=robots.txt . Mais cela n'a jamais été vraiment solutionné apparement. Un coup cela fonctionne, un coup cela ne fonctionne pas.
Mais ...
Donc, pas de panique. Cela fonctionne sur lighthouse des outils de développement Chrome. Et dans la search console : https://search.google.com/search-console/settings/robots-txt
Cordialement,
Eric
Apparement le check du fichier robots.txt est HS sur https://pagespeed.web.dev/ .
Testé sur plusieurs sites : le message est toujours le même : "Le fichier robots.txt n'est pas valide : Lighthouse n'est pas parvenu à télécharger le fichier robots.txt" .
Plusieurs bug signalés ici : https://github.com/GoogleChrome/lighthouse/issues?q=robots.txt . Mais cela n'a jamais été vraiment solutionné apparement. Un coup cela fonctionne, un coup cela ne fonctionne pas.
Mais ...
Donc, pas de panique. Cela fonctionne sur lighthouse des outils de développement Chrome. Et dans la search console : https://search.google.com/search-console/settings/robots-txt
Cordialement,
Eric