https://pagespeed.web.dev/ : check de robots.txt apparement HS

WRInaute discret
Bonjour,

Apparement le check du fichier robots.txt est HS sur https://pagespeed.web.dev/ .

Testé sur plusieurs sites : le message est toujours le même : "Le fichier robots.txt n'est pas valide : Lighthouse n'est pas parvenu à télécharger le fichier robots.txt" .

Plusieurs bug signalés ici : https://github.com/GoogleChrome/lighthouse/issues?q=robots.txt . Mais cela n'a jamais été vraiment solutionné apparement. Un coup cela fonctionne, un coup cela ne fonctionne pas.

Mais ...

Donc, pas de panique. Cela fonctionne sur lighthouse des outils de développement Chrome. Et dans la search console : https://search.google.com/search-console/settings/robots-txt

Cordialement,

Eric
 
Discussions similaires
C
Réponses
4
Affichages
1K
christele2
C
Haut