Search Console Couverture :"Url désignée comme no-index"

WRInaute occasionnel
Bonjour,

J'ai un petit soucis avec la Search Console, ...et honnêtement je ne trouve pas d'explication !

La section couverture m'indique 4 urls qui sont désignées comme étant en no-index. Le hic c'est que :

- Les 4 urls sont construites sur la base d'une même ossature que les 200 autres... en toute logique, si une est en erreur, toutes les autres devraient l'être aussi.

Je vérifie manuellement les pages en question
- dans le code source la balise <meta name="robots" content="index, follow">
- elles sont bien présentes dans le sitemap
Tout est ok !

Lorsque je fais "inspecter l'url" dans la search console, elle m'indique (par exemple) :
Découverte
Sitemaps => https://www.ndd.com/sitemap.xml
Page d'origine => Aucune page d'origine détectée
Exploration
Dernière exploration=> 2 déc. 2019 à 23:14:14
Explorée avec => Googlebot pour smartphone
Exploration autorisée ? => Oui
Récupération de page => Réussie
Indexation autorisée ?Non : noindex détecté dans la balise Meta robots

Je tourne en rond !

Je vérifie avec la commande site:, les urls sont effectivement désindexées, alors qu'elles m'apportaient minimum 100 visites/jr chacune.
En testant l'url en directe depuis la search console, google me dit que l'url est bonne pour être indexée.

Où est le problème et pourquoi a-t-elle été désindexée alors ??

Dois-je vérifier autre chose qui m'aurait échappé ?
 
Olivier Duffez (admin)
Membre du personnel
En testant l'url en directe depuis la search console
quelle différence avec utiliser l'inspecteur d'URL de la search console ?

si tu nous indiquais une de ces 4 URL, ça permettrait de mieux répondre (si jamais le pb est de ton côté et pas de celui de Google)
 
Olivier Duffez (admin)
Membre du personnel
je ne sais toujours pas ce que veut dire "un test en direct avec la search console"

tu devrais essayer d'inclure des URL canoniques
 
WRInaute occasionnel
Ah pardon, lorsque tu vas dans Couverture > Url envoyée désignée comme "noindex" et que tu cliques sur une url, tu as un volet à droite qui s'ouvre avec "inspecter l'url" et "tester le blocage par robots.txt".

Je choisis "inspecter l'url", j'ai les détails de l'erreur qui s'affichent ( ce que j'ai envoyé plus haut).
Ensuite en haut à droite il y a un bouton "tester l'url en direct", qui m'affiche les mêmes informations actualisées.
Dans le premier, c'est pas bon, alors qu'en direct tout est ok - sauf qu'au final la page a été désindexée.

Ce n'est pas la première fois que ça m'arrive, la dernière j'avais fait une demande d'indexation tout bêtement - et c'était repartit. Sauf que c'était assez récent et je vois que ça recommence avec d'autres pages; donc il y a quelque chose qui cloche quelque part.

Je n'ai jamais mis d'url canonique parce que je n'ai pas de doublons. Je suis resté sur la fonction première de la balise mais tu as raisons c'est plus sage de les rajouter. Je vais le faire; cela dit je ne crois pas que ça ait une influence sur l'indexation ?
 
Olivier Duffez (admin)
Membre du personnel
en effet, ce n'est pas censé avoir un impact direct sur l'indexation, sauf si Google estime que la bonne URL (canonique) est une autre, et que cette autre est en noindex.

dans Inspection de l'URL, as-tu un lien disponible sur "Afficher la page explorée" ? je suppose que non, il semble que Google ne le fournisse pas quand la page est non indexable
 
Discussions similaires
Haut