1. ⭐⭐⭐ Grosse PROMO en cours sur ma plateforme SEO My Ranking Metrics
    Rejeter la notice

Desindexer des "mauvaises" pages des recherches Google

Discussion dans 'Crawl et indexation Google, sitemaps' créé par potje59, 5 Mars 2014.

  1. potje59
    potje59 Nouveau WRInaute
    Inscrit:
    5 Mars 2014
    Messages:
    6
    J'aime reçus:
    0
    Bonjour, j'ai eu un souci sur mon site, des pages ont été indexées alors que je ne le souhaitais pas, le problème est maintenant résolu ( il s'agissait de page panier, de page de catégories avec navigation n= p= etc....), mais les pages ne se desindexent pas, sur 15000 pages indexées j'en ai environ 7000 avec " La description de ce résultat n'est pas accessible à cause du fichier robots.txt de ce site."

    Je me pose deux questions
    - Ces "mauvaises" pages peuvent elle avoir une influence sur le réferencement
    - Comment supprimer ces pages de google : supprimer les url de GWT ? Google le fera t il naturellement ou va t il les garder en mémoire ?

    J'ai lu le post suivant https://www.webrankinfo.com/dossiers/indexation/crawl-respect-robots-txt, mais je ne trouve pas réellement de solution à mon problème précis

    Je vous remercie d'avance de vos lumières :wink:
     
  2. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 878
    J'aime reçus:
    272
    Bienvenue sur WRI !

    Le fichier robots.txt sert à contrôler le crawl, pas l'indexation.
    Si tu veux désindexer des URL, il faut d'abord lever l'interdiction de crawl, faire désindexer puis remettre l'interdiction de crawl pour éviter que cela se reproduise.

    Pour désindexer :
    - si c'est dans un répertoire, demande la suppression dans GWT (il faudra préalablement avoir interdit ce répertoire dans le robots.txt : je sais ce n'est pas cohérent avec ce que j'ai dit avant, mais c'est pour simplifier la procédure)
    - si c'est éparpillé dans des URL par exemple avec un paramètre (variable dynamique), mets une balise meta robots noindex et liste les URL concernées dans un fichier sitemap
     
  3. potje59
    potje59 Nouveau WRInaute
    Inscrit:
    5 Mars 2014
    Messages:
    6
    J'aime reçus:
    0
    Merci pour cette réponse rapide , je vais encore abuser un peu de votre temps si possible :D

    Cela veut dire que supprimer les url directement dans GWT dans l'espace "URL à supprimer" ne serait pas gênant vu que cette url est dorénavant bloqué par le robots.txt ?

    Cet incident peut-il avoir eu un impact sur le referencement, car j'ai observé une baisse de traffic depuis ?
     
Chargement...
Similar Threads - Desindexer mauvaises recherches Forum Date
Pages zombies : faut-il désindexer les pages catégories ? Référencement Google 26 Août 2019
Pages Avis clients : à désindexer ou pas ? e-commerce 19 Août 2019
pages zombies à désindexer Techniques avancées de référencement 29 Juin 2019
Comment desindexer ces pages (AMP Media WP) Débuter en référencement 19 Juin 2019
désindexer et/ou empêcher crawl ? Crawl et indexation Google, sitemaps 4 Janvier 2019
Doit-on désindexer avant un 410 ? Débuter en référencement 11 Décembre 2018
Dilemme : désindexer ou pas les pages de faible qualité Crawl et indexation Google, sitemaps 6 Novembre 2018
désindexer des pages web d'une préprod Crawl et indexation Google, sitemaps 5 Novembre 2018
RM Tech - Désindexer un grand nombre de pages... est-ce que cela peut nuire ? Débuter en référencement 31 Octobre 2018
Désindexer un grand nombre d'URL spams Crawl et indexation Google, sitemaps 13 Septembre 2018
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice