WRInaute accro
Bonjour,
Tout est dans le titre.
J'ai approx. 300 pages que je souhaite désindexer de google parce que ce sont des pages de faible qualité.
Je les ai retiré du site pour qu'elles ne soient plus crawlables et elles sont renseignées en balise "noindex".
J'ai essayé plusieurs astuces, je crois !
La nouvelle interface m'en a dit plus. En fait, pour certaines, elles n'ont pas été crawlées depuis 26/07/17 donc je comprends bien que googlebot n'a pas pris en compte ma balise noindex.
J'ai donc essayé différentes astuces pour stimuler googlebot à passer sur ces urls.
- console search : Envoyer un sitemap de ces 300 urls
- console search : bloquer/masquer "temporairement" les 300 pages de l'index
Je ne les aies pas bloquées par robots.txt sinon logiquement googlebot ne pourrait pas faire sa mise à jour.
je ne sais plus comment faire ?
Je n'ai pas osé les mettre de nouveau sur le site car ok, elles seraient de nouveau crawlées donc pris en compte plus rapidement mais en suivant une certaine logique, quelle plus-value pour l'utilisateur si je lui propose des pages à faible qualité (reflexion google). J'ai actuellement approx. 10 000 de ces pages. Même si elles sont renseignées "noindex" je n'ai pas envie que google aille les indexer alors que j'essaye d'en désindexer 300 d'entres elles.
Ces 300 urls viennent impactés mon indice qualité car j'ai en tout pour tout, 600 pages indexées dont 300 pages légitimes. En conclusion, ces 300 pages de faible qualité viennent pourrir de 50% mon indice qualité.
Une autre astuce ?
Merci
Tout est dans le titre.
J'ai approx. 300 pages que je souhaite désindexer de google parce que ce sont des pages de faible qualité.
Je les ai retiré du site pour qu'elles ne soient plus crawlables et elles sont renseignées en balise "noindex".
J'ai essayé plusieurs astuces, je crois !
La nouvelle interface m'en a dit plus. En fait, pour certaines, elles n'ont pas été crawlées depuis 26/07/17 donc je comprends bien que googlebot n'a pas pris en compte ma balise noindex.
J'ai donc essayé différentes astuces pour stimuler googlebot à passer sur ces urls.
- console search : Envoyer un sitemap de ces 300 urls
- console search : bloquer/masquer "temporairement" les 300 pages de l'index
Je ne les aies pas bloquées par robots.txt sinon logiquement googlebot ne pourrait pas faire sa mise à jour.
je ne sais plus comment faire ?
Je n'ai pas osé les mettre de nouveau sur le site car ok, elles seraient de nouveau crawlées donc pris en compte plus rapidement mais en suivant une certaine logique, quelle plus-value pour l'utilisateur si je lui propose des pages à faible qualité (reflexion google). J'ai actuellement approx. 10 000 de ces pages. Même si elles sont renseignées "noindex" je n'ai pas envie que google aille les indexer alors que j'essaye d'en désindexer 300 d'entres elles.
Ces 300 urls viennent impactés mon indice qualité car j'ai en tout pour tout, 600 pages indexées dont 300 pages légitimes. En conclusion, ces 300 pages de faible qualité viennent pourrir de 50% mon indice qualité.
Une autre astuce ?
Merci
Dernière édition: