Désindexation URL en masse

Discussion dans 'Crawl et indexation Google, sitemaps' créé par seo-inside, 2 Mai 2012.

  1. seo-inside
    seo-inside Nouveau WRInaute
    Inscrit:
    2 Mai 2012
    Messages:
    10
    J'aime reçus:
    0
    Bonjour à tous.

    J'ai une petite question concernant la suppression d'URL... Voilà... Pour supprimer une page dans l'index google il suffit juste de la stipuler dans le webmaster tool ça c'est OK. Mais quand on veut par exemple supprimer plusieurs pages d'un coup avec une seule requête?

    Exemple :
    http://nom-de-domaine.com/dossier/page?SID=clé
    Est ce que je peut faire : http://nom-de-domaine.com/*?SID=*

    Si quelqu'un a une piste, je suis preneur :)

    Merci.
     
  2. e-kiwi
    e-kiwi WRInaute accro
    Inscrit:
    23 Décembre 2003
    Messages:
    13 198
    J'aime reçus:
    1
    tu as essayé via le robots.txt ? en une ligne c'est écrit
     
  3. shaman99
    shaman99 WRInaute discret
    Inscrit:
    23 Avril 2010
    Messages:
    154
    J'aime reçus:
    0
  4. seo-inside
    seo-inside Nouveau WRInaute
    Inscrit:
    2 Mai 2012
    Messages:
    10
    J'aime reçus:
    0
    Tout d'abord merci de vos réponses rapide ;)

    J'ai tout bloqué au niveau du robots.txt mais je veux les supprimer de l'index de google directement....
     
  5. 1eB
    1eB WRInaute discret
    Inscrit:
    26 Janvier 2012
    Messages:
    75
    J'aime reçus:
    0
    Les outils pour Web-master de Google permettent de faire une demande de désindexation.
    Configuration du site > Accès du robot d'exploration > Onglet -> URL à supprimer

    Faire une demande de suppression et choisir la suppression d'un répertoire !

    *Edit : On dirait qu'ils on changeait le fonctionnement maintenant il semblerait qu'il faille s'occuper de chaque URL... :?
     
  6. seo-inside
    seo-inside Nouveau WRInaute
    Inscrit:
    2 Mai 2012
    Messages:
    10
    J'aime reçus:
    0
    Oui mais justement j'ai plus de 1000 url à virer avec des paramètres SID et avec des variations comme :

    http://nom-de-domaine.com/page?SID=clé
    http://nom-de-domaine.com/dossier/page?SID=clé
    etc..

    Donc j'aimerais faire une seule demande générique pour chaque variation... C'est URL sont anciennes malgré qu'elles soient bloqué par le robots.txt elles sont toujours indexées dans google.
     
  7. e-kiwi
    e-kiwi WRInaute accro
    Inscrit:
    23 Décembre 2003
    Messages:
    13 198
    J'aime reçus:
    1
    ne pas être trop préssé aussi, tu a fait la modification dans le robot.Txt il y a longtemps ?
     
  8. 1eB
    1eB WRInaute discret
    Inscrit:
    26 Janvier 2012
    Messages:
    75
    J'aime reçus:
    0
    Ces anciennes URL sont elles redirigées par des code 301 ?
    Sont elles en 404 ?

    Dans le premier cas en fonction de la fréquence de passage des bots google sur votre site ces adresses disparaitront seules au bout de quelques mois et vous ne devriez pas perdre en fréquentation pour autant.

    Dans le second cela peut être effectivement beaucoup plus long et c'est surtout beaucoup moins bon pour vous.

    Ne vous inquiétez pas si vos redirections sont bien faites vous n'aurez aucun soucis.
     
  9. seo-inside
    seo-inside Nouveau WRInaute
    Inscrit:
    2 Mai 2012
    Messages:
    10
    J'aime reçus:
    0
    Cela va faire quelques mois déjà que les url sont bloquées par le robots.txt. Le pire c'est qu'elles sont dans le premier index... Toutes les paramètres SID sont redirigés vers la home...
     
  10. chnain35
    chnain35 WRInaute discret
    Inscrit:
    7 Avril 2010
    Messages:
    53
    J'aime reçus:
    0
    Bonjour,

    J'ai un problème similaire : j'ai besoin de supprimer un volume très important d'URLs de l'index Google.

    J'explique en simplifiant : disons que mon site avait 100 000 URLs indexées, mais dont 90% étaient des recherches qui créaient des contenus dupliqués (DC). Je ne m'en suis pas occupé jusqu'à ce que, comme beaucoup, je me sois pris une pénalité au début du mois de septembre.

    J'ai donc réagi en ajoutant des balises "noindex" sur toutes les pages de type "tag" : "motcle=*". Idem pour les pages à peu de résultats.

    Mon sitemap ne fournit donc plus que 5000 URLs. Google les prend en compte, je les vois bien quand je fais un "site:domain". Par contre, je vois toujours 100 000 page indexées 2 mois après mes corrections, que ce soit dans GWT ou dans google, comme s'il se fichait des "noindex".

    J'avais pensé les supprimer via le robots.txt : erreur, cela empêche les robots de visiter la page, mais ça ne les enlève pas de l'index ! Au contraire, j'aimerais que Google vienne sur la page pour VOIR cette balise "noindex".

    La majorité des pages en noindex étaient générées automatiquement, c'était une erreur monumentale, j'ai donc viré les liens. Mais du coup, Google ne peut plus accéder à ces pages, donc voir la balise "noindex" !!!

    Alors j'hésite entre plusieurs solutions :

    - demander la suppression de 90 000 pages à la main... euh comment dire ?

    - faire une sorte de plan de site avec tous les liens avec des noindex... Mais je crains une autre pénalité en faisant cela si c'est mal pris.

    - faire un sitemap des pages en noindex... utile ? Il parait que Google se fout un peu des sitemaps.

    - faire un 301 des pages merdiques en noindex de cette manière : "/?motcle=*" => "/recherche/*" et ainsi, profiter d'avoir un répertoire pour demander la suppression de ce répertoire via l'outil de suppression de google + ajout dans le robots.txt pour interdire le crawl de ce répertoire.

    J'espère que j'ai été clair, et j'espère avoir vos avis éclairés sur cette problématique qui revient assez souvent.

    MERCI à tous !
     
  11. Madrileño
    Madrileño Membre Honoré
    Inscrit:
    7 Juillet 2004
    Messages:
    31 566
    J'aime reçus:
    280
    Complément : Il existe des URL prévues pour donner des exemples: "example.com" ou encore "example.net" (avec un "a").
     
  12. chnain35
    chnain35 WRInaute discret
    Inscrit:
    7 Avril 2010
    Messages:
    53
    J'aime reçus:
    0
    J'ai donné les URIs, le nom de domaine importe peu dans les exemples donnés.
     
  13. noren
    noren WRInaute accro
    Inscrit:
    8 Avril 2011
    Messages:
    2 816
    J'aime reçus:
    18
    redirigé vers la home? quel dommage. N'aurait-il pas été préférable de les redirigé sur les pages correspondante sans le SID?
    L'attibut canonical peut être intéressant dans ce cas là.

    Il faut également penser a interdire le SID dans le .htacess je crois.
     
  14. chnain35
    chnain35 WRInaute discret
    Inscrit:
    7 Avril 2010
    Messages:
    53
    J'aime reçus:
    0
    noren tu réponds au message précédent qui date de mai 2012. J'ai posté dans ce forum car c'est un sujet très proche.
    Tu as une idée concernant la méthode de suppression en masse ?

    Pour info j'ai des balises canonical.
     
  15. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 024
    J'aime reçus:
    1
    Non ça change rien GG ne suis pas les liens il les découvre et les note donc il les connais lien ou pas ...

    Une solution serait de pinguer une page pour voir en live si le bot passe ou pas (perso suite a un ping (pingomatic) je vois les ip passer direct pour charger la page seulement il y a pas que GG qui passe)

    Si ça fonctionne faire un script "calme" qui va pinguer les 90000 pages sur plusieurs jours c'est pas la mort.
     
  16. chnain35
    chnain35 WRInaute discret
    Inscrit:
    7 Avril 2010
    Messages:
    53
    J'aime reçus:
    0
    Il les connait... certes. Mais de là à faire une mise à jour de ses index concernant ton site...

    Utiliser pingomatic en masse est déconseillé, ce n'est pas une méthode pour "réveiller" google.
     
  17. chnain35
    chnain35 WRInaute discret
    Inscrit:
    7 Avril 2010
    Messages:
    53
    J'aime reçus:
    0
    Bien, n'ayant pas obtenu ici d'avis avisé sur la désindexation en masse, pour une fois, j'ai décidé de :

    - mettre des 410 sur les anciennes pages (plus linkées en interne)

    - faire des 301 à la place quand c'est justifié, quand il existe une page similaire (10 à 20% des cas)

    Je ne pense pas que l'index Google sera mis à jour rapidement, mais au moins tout est mis en place pour donner un message clair : ces pages n'existent plus ou sont remplacées.
     
Chargement...
Similar Threads - Désindexation masse Forum Date
WordPress Désindexation en masse de mes pages Problèmes de référencement spécifiques à vos sites 1 Juillet 2020
Désindexation d'urls Problèmes de référencement spécifiques à vos sites 19 Avril 2021
Desindexation et suppression URL Crawl et indexation Google, sitemaps 6 Novembre 2020
Désindexation massive de mon site Débuter en référencement 3 Novembre 2020
Désindexation - Besoin de vos retours ! Demandes d'avis et de conseils sur vos sites 17 Août 2020
Search Console Google n'explore pas les liens du sitemap (de desindexation) Crawl et indexation Google, sitemaps 6 Juillet 2020
Search Console désindexation url spam Crawl et indexation Google, sitemaps 11 Février 2020
Désindexation des images quasi totales YouTube, Google Images et Google Maps 1 Décembre 2019
WordPress Désindexation / réindexation Débuter en référencement 21 Novembre 2019
Comment accélérer la désindexation de pages en noindex Crawl et indexation Google, sitemaps 17 Novembre 2019
Désindexation Bing Débuter en référencement 27 Août 2019
Désindexation pdf via htaccess Crawl et indexation Google, sitemaps 9 Juillet 2019
Bug Google : désindexation de pages Référencement Google 7 Avril 2019
Produits plus fabriqués et plus en stock : suppression, désindexation ou redirection ? Débuter en référencement 21 Mars 2019
WordPress Désindexation des fichiers "attachements" dans Google ? Référencement Google 2 Novembre 2018
Désindexation de mes images suite au passage à l'index mobile-first (MFI) Problèmes de référencement spécifiques à vos sites 27 Octobre 2018
Désindexation de mon site Débuter en référencement 8 Octobre 2018
Désindexation page avec sitemap ou GSC Débuter en référencement 8 Octobre 2018
Désindexation images par Google Crawl et indexation Google, sitemaps 4 Octobre 2018
Désindexation sites suite à un problème robot spam Crawl et indexation Google, sitemaps 13 Septembre 2018