https://pagespeed.web.dev/ : check de robots.txt apparement HS

  • Auteur de la discussion Auteur de la discussion eldk
  • Date de début Date de début
WRInaute occasionnel
Bonjour,

Apparement le check du fichier robots.txt est HS sur https://pagespeed.web.dev/ .

Testé sur plusieurs sites : le message est toujours le même : "Le fichier robots.txt n'est pas valide : Lighthouse n'est pas parvenu à télécharger le fichier robots.txt" .

Plusieurs bug signalés ici : https://github.com/GoogleChrome/lighthouse/issues?q=robots.txt . Mais cela n'a jamais été vraiment solutionné apparement. Un coup cela fonctionne, un coup cela ne fonctionne pas.

Mais ...

Donc, pas de panique. Cela fonctionne sur lighthouse des outils de développement Chrome. Et dans la search console : https://search.google.com/search-console/settings/robots-txt

Cordialement,

Eric
 
Discussions similaires
C
Réponses
4
Affichages
2K
christele2
C
Haut