temps de désindexation google

Discussion dans 'Problèmes de référencement spécifiques à vos sites' créé par dudo, 18 Février 2016.

  1. dudo

    dudo WRInaute impliqué

    Inscrit:
    10 Janvier 2004
    Messages:
    640
    J'aime reçus:
    0
    Bonjour

    En rêgle générale combien de temps met Google à désindexer des pages (3000)
    après lui avoir envyé un fichier xml, sur le webmaster tool

    Merci de vos retours
     
  2. Madrileño

    Madrileño Madribot

    Inscrit:
    7 Juillet 2004
    Messages:
    37 803
    J'aime reçus:
    14
    Bonjour,

    C'est très variable suivant les sites, cela peut être quelques minutes à plusieurs mois.

    N'hésitez pas à vous présenter au forum : ici et entre deux messages présenter vos avis aussi sur les sujets : ici.

    Cordialement.
     
  3. dudo

    dudo WRInaute impliqué

    Inscrit:
    10 Janvier 2004
    Messages:
    640
    J'aime reçus:
    0
    Merci, c'est de plus en plus consternant la rapidité chez Google !
     
  4. UsagiYojimbo

    UsagiYojimbo WRInaute accro

    Inscrit:
    23 Novembre 2005
    Messages:
    12 380
    J'aime reçus:
    0
    Tu as envoyé un fichier xml de pages redirigés ?
     
  5. dudo

    dudo WRInaute impliqué

    Inscrit:
    10 Janvier 2004
    Messages:
    640
    J'aime reçus:
    0
    C'est quoi que que tu nommes un fichier xml de pages redirigées.

    Non, car je change tout, Rsponsive etc, sauf la home, je suis en ASP.net, donc j'ai tout mis en noindex sauf home,
    ensuite je mets ma nouvelle plateforme. Et les pages de l'ancienne plateforme tomberont en 404.

    Et vous en pensez quoi de la directive noindex non documentée mais supportée par Google. Ce "Noindex" dans le fichier robots.txt permet d'avoir le même effet que la balise meta robots noindex, c'est-à-dire interdire l'indexation d'un document.
    User-agent: *
    Noindex: /page-a.html
    Noindex: /article-*
     
  6. UsagiYojimbo

    UsagiYojimbo WRInaute accro

    Inscrit:
    23 Novembre 2005
    Messages:
    12 380
    J'aime reçus:
    0
    Si tu veux désindexer l'ancien site, le mieux reste de rediriger vers les nouvelles pages équivalentes. En laissant tout en 404, tu vas perdre tout l'acquis du site. A mon sens, c'est une très grosse erreur.
     
  7. dudo

    dudo WRInaute impliqué

    Inscrit:
    10 Janvier 2004
    Messages:
    640
    J'aime reçus:
    0
    en aps.net c'est compliqué à gérer surtout sur +5000 urls, d'autant que toutes sont vraiment réécrites
     
  8. Furtif

    Furtif WRInaute passionné

    Inscrit:
    9 Août 2005
    Messages:
    2 076
    J'aime reçus:
    0
  9. dudo

    dudo WRInaute impliqué

    Inscrit:
    10 Janvier 2004
    Messages:
    640
    J'aime reçus:
    0
    oui, je connais cette page, mais pas de réponse officielle sur la directive noindex dans le fichier robots.txt
     
  10. Furtif

    Furtif WRInaute passionné

    Inscrit:
    9 Août 2005
    Messages:
    2 076
    J'aime reçus:
    0
  11. UsagiYojimbo

    UsagiYojimbo WRInaute accro

    Inscrit:
    23 Novembre 2005
    Messages:
    12 380
    J'aime reçus:
    0
    http://www.isapirewrite.com/

    Sachant que sur un volume comme celui-là, j'ai plutôt tendance à gérer mes redirections via une table de correspondance et un script qui vérifie ou non la présence de l'url dans cette table.
     
  12. WebRankInfo

    WebRankInfo Admin
    Membre du personnel

    Inscrit:
    19 Avril 2002
    Messages:
    22 825
    J'aime reçus:
    7
    je confirme que c'est une très mauvaise idée de ne pas rediriger chaque ancienne URL vers la nouvelle équivalente (en 301)
    il est possible que la directive noindex dans le robots.txt fonctionne mais ce n'est pas la bonne méthode