Indexation malgré le robots.txt

Nouveau WRInaute
Bonjour à tous et à toutes,

Je rencontre un problème d'indexation malgré le robots.txt.

Au départ, les pages à désindexer étaient situées dans le robots.txt mais indexées quand même, j'ai donc tenté de les enlever du robots.txt et de mettre un attribut no index no follow sur chacune des pages en question. Aujourd'hui, ces pages sont toutes encore indexées ... Avez-vous déjà rencontré cette problématique ?

D'avance merci !!
 

Fichiers joints

  • 2019-09-23_14h22_24.png
    2019-09-23_14h22_24.png
    32.3 KB · Affichages: 7
WRInaute discret
Le fait de le interdire dans le robots.txt n'empêche pas l'indexation si elles l'étaient déjà avant. La directive dans le fichier robots.txt empêche le crawl.

Ainsi si vous empêchez le crawl via le fichier robots.txt et que vous mettez un noindex sur la page google ne désindexera pas la page car vous lui interdisez de la crawler dans le fichier robots.

Conclusion : mettez un noindex sur les pages que vous souhaitez désindexer et retirer les directives interdisant le crawl de ces pages dans votre fichier robots.txt. Quand google ira crawler ces pages il verra le noindex et le retirera de son index.
 
Discussions similaires
Haut