x-robots-tag noindex et code http 410

Discussion dans 'Crawl et indexation Google, sitemaps' créé par saluts92, 22 Juin 2018.

  1. saluts92
    saluts92 WRInaute impliqué
    Inscrit:
    12 Avril 2006
    Messages:
    816
    J'aime reçus:
    32
    BOnjour,

    je souhaite désindexer plusieurs milliers de pages (suite à une petite erreur de conception) de mon site.
    Elles retournent actuellement un code HTTP 410.
    Mais je crains que ce ne soit pas assez rapide et je souhaite rajouter :
    x-robots-tag noindex dans le header soit dans mon code PHP : header("X-Robots-Tag: noindex");

    Ma question : le noindex va t-il être pris en compte par les moteurs de recherche (surtout GG) ? ou faut il absolument un code HTTP 200 pour qu'il soit pris en compte ?

    D'avance merci
     
  2. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 691
    J'aime reçus:
    439
  3. saluts92
    saluts92 WRInaute impliqué
    Inscrit:
    12 Avril 2006
    Messages:
    816
    J'aime reçus:
    32
    j'ai fait un sitemap qui pointe sur page 410, mais je suis tombé sur un article Webrankinfo qui disait que cela pouvait prendre "9 mois"

    je pense donc rediriger ces pages vers une page code HTTP 200 (la meme pour tous) avec un noindex
    est ce que cela pourrait le faire (être plus rapide) ?
     
  4. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 691
    J'aime reçus:
    439
    il ne faut pas rediriger plein d'URL vers une même URL
    - si les pages doivent encore être consultables, il faut leur ajouter du noindex
    - sinon un code 410
    dans les 2 cas faire un sitemap exhaustif pour accélérer
     
  5. saluts92
    saluts92 WRInaute impliqué
    Inscrit:
    12 Avril 2006
    Messages:
    816
    J'aime reçus:
    32
    et combien de temps cela prendra avec un code 410 (+ sitemap) pour désindexer ?
    En effet cela semble très lent
    alors que a coté j'ai plusieurs centaines de pages en noindex qui se sont désindexés en 1 semaine
     
  6. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 691
    J'aime reçus:
    439
    impossible à pronostiquer, ça dépend du nb d'URL et de la "bonne volonté" de Google
    pour moi il faut juste se baser sur les cas que j'ai mentionnés dans mon dernier post ci-dessus
     
Chargement...
Similar Threads - robots tag noindex Forum Date
X-Robots-Tag pour désindexer des paramètres Crawl et indexation Google, sitemaps 10 Juillet 2014
Pourquoi mes tags (restreint par robots.txt) sont ils référencés par Google? Débuter en référencement 22 Novembre 2010
Disallow tag dans robots.txt Crawl et indexation Google, sitemaps 26 Octobre 2010
lien variable à bloquer sur robots Développement d'un site Web ou d'une appli mobile 3 Mai 2020
Urls orphelines crawlées par Google + Robots.txt ? Crawl et indexation Google, sitemaps 3 Avril 2020
Robots.txt du site Kayak Débuter en référencement 11 Mars 2020
Search Console Indexée malgré le blocage dans robots.txt Crawl et indexation Google, sitemaps 26 Février 2020
Search Console Prestashop | Robot.txt bloque des URL mais Outil de test du fichier robots.txt l'Authorise... Crawl et indexation Google, sitemaps 21 Novembre 2019
Search Console Images bloquées ... malgré absence de robots.txt Crawl et indexation Google, sitemaps 31 Octobre 2019
Aide sur le format de mon fichier robots.txt Crawl et indexation Google, sitemaps 25 Octobre 2019
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice