Indexée malgré le blocage par le fichier robots.txt

WRInaute discret
Bonjour,

Est-ce que Google respecte le fichier robots.txt ?

"Il s'agit d'un problème non critique. Les pages présentant ce problème sont indexées, mais leur apparence dans les résultats de recherche peut être améliorée"

...avec 0 pages concernées ?!?
 
WRInaute discret
je n'ai pas tout compris ce que tu demandes. Google t'annonce que tu n'as pas ce pb ?
Désolé Olivier.
C'est un message que j'ai dans la GSC. Visiblement, je bloque des requêtes JSON par mon fichier robots car cela créé des doublons d'indexation.
Mais j'ai ce message que je n'ai pas compris non plus.
Logiquement les bons robots respectent l'indexation en fonction des "disallow" inscrits.
Alors, est-ce qu'il me met ce message dans la mesure que les requêtes JSON pointent sur les mêmes articles ?
 
WRInaute discret
OK.
Dans mon esprit, si l'on demandait de ne pas crawler à un bot certaines URL cela était pour ne pas les indexer.
Quand je publie un article, il est indexé presque immédiatement.
Donc où les bots vont récupérer toutes les requêtes JSON pour essayer de les indexer ?
Cela devient compliqué dans mon vieux cerveau non-équipé d'algorithmes :)
Sinon, chapeau bas Olivier: tes articles et conseils sont toujours aussi top !
 
WRInaute discret
sans savoir les URL concernées, ni s'il y a vraiment des erreurs listées, on ne peut pas t'aider plus
Le problème est que la GSC ne me dit pas non plus quelles sont les URL incriminées.
Sauf qu'il existe des blocages au niveau de mon fichier robots.txt

Est-ce qu'il a réellement besoin de crawler ou indexer ce style d'URL ?
...fr/wp-includes/js/wp-emoji-release.min.js?ver=6.9.1
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut