Faire un sitemap pour désindexer des URL

Discussion dans 'Débuter en référencement' créé par Icipierrot, 24 Juin 2018.

  1. Icipierrot
    Icipierrot WRInaute occasionnel
    Inscrit:
    30 Octobre 2013
    Messages:
    328
    J'aime reçus:
    14
    Bonjour,

    J'ai mis en noindex un paquet de pages dont le contenu ne pouvait pas être mis à jour, car obsolète.

    À partir de là j'ai vu qu'il est possible de créer un sitemap https://www.webrankinfo.com/dossiers/indexation/comment-desindexer, afin d'amener les bot de Google à les crawler et donc à les désindexer plus vite.

    Si j'ai bien compris le principe, ça se passe comme ça :

    1- Créer un fichier sous le format .txt et y lister les URL à crawler (et donc à désindexer), à raison d'une par ligne.

    2- Mettre ce fichier .txt en ligne, via l'outil d'ajout de sitemap de la console Google.

    Toutefois un point me chagrine : cette liste d'URL se trouve déjà sur le sitemap des articles. Si je rajoute un 2e sitemap avec ces mêmes URL, elles vont se trouver en double dans l'ensemble de mon index.

    N'y a-t-il pas un danger de créer de la masse noire, et donc d'affecter mon référencement ?

    Merci d'avance.
     
  2. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    11 874
    J'aime reçus:
    71
    Google n'indexe pas des url identiques en double, même si tu les incorpores dans plusieurs sitemap.

    Pour autant, par souci de lisibilité, je séparerais les url en noindex de celles qui ne le sont pas.
     
    Icipierrot apprécie ceci.
  3. Icipierrot
    Icipierrot WRInaute occasionnel
    Inscrit:
    30 Octobre 2013
    Messages:
    328
    J'aime reçus:
    14
  4. Icipierrot
    Icipierrot WRInaute occasionnel
    Inscrit:
    30 Octobre 2013
    Messages:
    328
    J'aime reçus:
    14
    Dans le même ordre d’idée, je lis sur mon dernier rapport MR Tech que j'ai 61 % de pages indéxables.

    Or je lis aussi : "il n'est pas efficace de laisser de nombreuses pages se faire crawler alors que vous exigez qu'elles ne soient pas indexées."

    J'en déduit donc que je dois aussi les regrouper dans une catégorie, et bloquer le crawl de cette catégorie via mon ficher robots.txt.

    Oui mais voila, ces pages sont en cours de désindexation, du coup dois-je attendre que ces pages soient toutes désindexées avant d'en empêcher le crawl ?

    Existe-t-il une astuce pour bloquer le crawl tout en demandant aux bots de Google de les désindexer ?

    Merci d'avance.
     
Chargement...
Similar Threads - sitemap désindexer Forum Date
Search Console Comment faire évoluer son sitemap Débuter en référencement Samedi à 18:10
WordPress Indexée, mais non envoyée via un sitemap Crawl et indexation Google, sitemaps 5 Août 2019
Webmaster tools - Impossible de lire le sitemap Crawl et indexation Google, sitemaps 31 Juillet 2019
Mauvais sitemap statique déclaré Crawl et indexation Google, sitemaps 24 Juin 2019
sitemap exclue par la balise "noindex" Problèmes de référencement spécifiques à vos sites 18 Juin 2019
sitemap par type de page et par langue Référencement international (langues, pays) 28 Mai 2019
Search Console Passage de HTTP à HTTPS (Fichiers ROBOTS.TXT et SITEMAP) 0 Crawl et indexation Google, sitemaps 16 Mai 2019
Budget de crawl et images "Indexée, mais non envoyée via un sitemap" Problèmes de référencement spécifiques à vos sites 13 Mai 2019
Url d'un sitemap vers des images etc Débuter en référencement 17 Avril 2019
Question sur sitemap et robots.txt Crawl et indexation Google, sitemaps 8 Avril 2019
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice