WRInaute occasionnel
Bonjour,
J'ai mis en noindex un paquet de pages dont le contenu ne pouvait pas être mis à jour, car obsolète.
À partir de là j'ai vu qu'il est possible de créer un sitemap https://www.webrankinfo.com/dossiers/indexation/comment-desindexer, afin d'amener les bot de Google à les crawler et donc à les désindexer plus vite.
Si j'ai bien compris le principe, ça se passe comme ça :
1- Créer un fichier sous le format .txt et y lister les URL à crawler (et donc à désindexer), à raison d'une par ligne.
2- Mettre ce fichier .txt en ligne, via l'outil d'ajout de sitemap de la console Google.
Toutefois un point me chagrine : cette liste d'URL se trouve déjà sur le sitemap des articles. Si je rajoute un 2e sitemap avec ces mêmes URL, elles vont se trouver en double dans l'ensemble de mon index.
N'y a-t-il pas un danger de créer de la masse noire, et donc d'affecter mon référencement ?
Merci d'avance.
J'ai mis en noindex un paquet de pages dont le contenu ne pouvait pas être mis à jour, car obsolète.
À partir de là j'ai vu qu'il est possible de créer un sitemap https://www.webrankinfo.com/dossiers/indexation/comment-desindexer, afin d'amener les bot de Google à les crawler et donc à les désindexer plus vite.
Si j'ai bien compris le principe, ça se passe comme ça :
1- Créer un fichier sous le format .txt et y lister les URL à crawler (et donc à désindexer), à raison d'une par ligne.
2- Mettre ce fichier .txt en ligne, via l'outil d'ajout de sitemap de la console Google.
Toutefois un point me chagrine : cette liste d'URL se trouve déjà sur le sitemap des articles. Si je rajoute un 2e sitemap avec ces mêmes URL, elles vont se trouver en double dans l'ensemble de mon index.
N'y a-t-il pas un danger de créer de la masse noire, et donc d'affecter mon référencement ?
Merci d'avance.