Jenna Coco
Nouveau WRInaute
Bonjour,
j'ai fait des demandes de désindexation pour plusieurs URLs à des dates différentes et j'ai tout répertorié sur un fichier Excel que vous trouverez en PJ.
J'ai utilisé la formule suivante :
{% if handle contains 'page-handle-you-want-to-exclude' %}
<meta name="robots" content="noindex">
{% endif %}
Grâce à la page d'aide de Shopify : https://help.shopify.com/fr/manual/promoting-marketing/seo/hide-a-page-from-search-engines
Je m'aperçois aujourd'hui que certaines URLs sont encore indexées malgré le passage de Googlebot après mes demandes.
Je vois aussi que certaines URLs ne sont plus indexées depuis que j'ai fait la demande. Je ne peux donc pas savoir si c'est une erreur de ma part ou non.
Est ce possible que Google indexe une page malgré la commande meta name robots noindexe intégrée dans le head ?
J'ai trouvé dans un article de blog l'astuce suivante :
L'astuce pour que Google désindexe les pages très vite, c'est de les mettre dans un sitemap (simple fichier texte) et de le déclarer dans la Search Console. Je rappelle qu'un sitemap ne sert pas à faire indexer des pages, mais à les faire crawler. En crawlant les pages, Google va constater que vous demandez leur désindexation (balise meta robots ou code 404/410).
Est ce que pour les URLs que Google n'est pas venu explorer depuis longtemps, donc qui n'a pas pris en compte ma demande de désindexation, je peux utiliser l'astuce ci-dessus ? Le problème c'est que dans la Search console on me demande d'inscrire une URL comme vous pourrez le voir dans le screen en PJ.
Avez-vous une idée svp ?
Merci pour vos retours.
Jenna
j'ai fait des demandes de désindexation pour plusieurs URLs à des dates différentes et j'ai tout répertorié sur un fichier Excel que vous trouverez en PJ.
J'ai utilisé la formule suivante :
{% if handle contains 'page-handle-you-want-to-exclude' %}
<meta name="robots" content="noindex">
{% endif %}
Grâce à la page d'aide de Shopify : https://help.shopify.com/fr/manual/promoting-marketing/seo/hide-a-page-from-search-engines
Je m'aperçois aujourd'hui que certaines URLs sont encore indexées malgré le passage de Googlebot après mes demandes.
Je vois aussi que certaines URLs ne sont plus indexées depuis que j'ai fait la demande. Je ne peux donc pas savoir si c'est une erreur de ma part ou non.
Est ce possible que Google indexe une page malgré la commande meta name robots noindexe intégrée dans le head ?
J'ai trouvé dans un article de blog l'astuce suivante :
L'astuce pour que Google désindexe les pages très vite, c'est de les mettre dans un sitemap (simple fichier texte) et de le déclarer dans la Search Console. Je rappelle qu'un sitemap ne sert pas à faire indexer des pages, mais à les faire crawler. En crawlant les pages, Google va constater que vous demandez leur désindexation (balise meta robots ou code 404/410).
Est ce que pour les URLs que Google n'est pas venu explorer depuis longtemps, donc qui n'a pas pris en compte ma demande de désindexation, je peux utiliser l'astuce ci-dessus ? Le problème c'est que dans la Search console on me demande d'inscrire une URL comme vous pourrez le voir dans le screen en PJ.
Avez-vous une idée svp ?
Merci pour vos retours.
Jenna