Search Console Sitemap pour accélérer la désindexation dans la Search Console

Nouveau WRInaute
Bonjour,

j'ai fait des demandes de désindexation pour plusieurs URLs à des dates différentes et j'ai tout répertorié sur un fichier Excel que vous trouverez en PJ.

J'ai utilisé la formule suivante :

{% if handle contains 'page-handle-you-want-to-exclude' %}
<meta name="robots" content="noindex">
{% endif %}

Grâce à la page d'aide de Shopify : https://help.shopify.com/fr/manual/promoting-marketing/seo/hide-a-page-from-search-engines

Je m'aperçois aujourd'hui que certaines URLs sont encore indexées malgré le passage de Googlebot après mes demandes.

Je vois aussi que certaines URLs ne sont plus indexées depuis que j'ai fait la demande. Je ne peux donc pas savoir si c'est une erreur de ma part ou non.
Est ce possible que Google indexe une page malgré la commande meta name robots noindexe intégrée dans le head ?

J'ai trouvé dans un article de blog l'astuce suivante :

L'astuce pour que Google désindexe les pages très vite, c'est de les mettre dans un sitemap (simple fichier texte) et de le déclarer dans la Search Console. Je rappelle qu'un sitemap ne sert pas à faire indexer des pages, mais à les faire crawler. En crawlant les pages, Google va constater que vous demandez leur désindexation (balise meta robots ou code 404/410).

Est ce que pour les URLs que Google n'est pas venu explorer depuis longtemps, donc qui n'a pas pris en compte ma demande de désindexation, je peux utiliser l'astuce ci-dessus ?
Le problème c'est que dans la Search console on me demande d'inscrire une URL comme vous pourrez le voir dans le screen en PJ.

Avez-vous une idée svp ?

Merci pour vos retours.

Jenna
 

Fichiers joints

  • image.png
    image.png
    40.1 KB · Affichages: 6
  • Demande DESINDEXATION.xlsx - Feuille 1.pdf
    56.4 KB · Affichages: 12
WRInaute occasionnel
J'ai des centaines de pages avec une redirection 410 que j'ai mis en place fin décembre. La GSC continue tranquillement de les crawler, et de me les mettre en erreur. Je pense qu'il faut attendre 3 mois.
Pour rappel, il y a un forum dédié au crawl de google avec d'autres infos.
 
Nouveau WRInaute
Merci pour ta réponse Elji !! Donc tu penses que ce n'est pas nécessaire de créer ce fichier sitemap pour aider à accélérer la désindexation ? Perte de temps si j'essaye de le faire maintenant avant d'attendre 3 mois environ je comprends bien ?
 
WRInaute impliqué
Merci pour ta réponse Elji !! Donc tu penses que ce n'est pas nécessaire de créer ce fichier sitemap pour aider à accélérer la désindexation ? Perte de temps si j'essaye de le faire maintenant avant d'attendre 3 mois environ je comprends bien ?

L'ayant fait moi-même pour tenter d'accélérer la désindexation, je dirais perte de temps : ça n'avait rien accéléré.
 
WRInaute occasionnel
Il y a 2 choses différentes. Le crawl et la désindexation. Le sitemap accélère la première, c'est sûr, mais la seconde, je n'ai pas d'élément pour le croire.
 
Discussions similaires
Haut