Astuce désindexer page nouvellement "noindex"

WRInaute accro
Bonjour,

Tout est dans le titre.
J'ai approx. 300 pages que je souhaite désindexer de google parce que ce sont des pages de faible qualité.
Je les ai retiré du site pour qu'elles ne soient plus crawlables et elles sont renseignées en balise "noindex".
J'ai essayé plusieurs astuces, je crois !

La nouvelle interface m'en a dit plus. En fait, pour certaines, elles n'ont pas été crawlées depuis 26/07/17 donc je comprends bien que googlebot n'a pas pris en compte ma balise noindex.

J'ai donc essayé différentes astuces pour stimuler googlebot à passer sur ces urls.
- console search : Envoyer un sitemap de ces 300 urls
- console search : bloquer/masquer "temporairement" les 300 pages de l'index

Je ne les aies pas bloquées par robots.txt sinon logiquement googlebot ne pourrait pas faire sa mise à jour.
je ne sais plus comment faire ?
Je n'ai pas osé les mettre de nouveau sur le site car ok, elles seraient de nouveau crawlées donc pris en compte plus rapidement mais en suivant une certaine logique, quelle plus-value pour l'utilisateur si je lui propose des pages à faible qualité (reflexion google). J'ai actuellement approx. 10 000 de ces pages. Même si elles sont renseignées "noindex" je n'ai pas envie que google aille les indexer alors que j'essaye d'en désindexer 300 d'entres elles.

Ces 300 urls viennent impactés mon indice qualité car j'ai en tout pour tout, 600 pages indexées dont 300 pages légitimes. En conclusion, ces 300 pages de faible qualité viennent pourrir de 50% mon indice qualité.

Une autre astuce ?
Merci
 
Dernière édition:
WRInaute accro
Si tu les as retiré du site, elles sont en 404 non ? Donc ta balise noindex ne sert à rien, vu que Google n'y accède pas ?
 
WRInaute accro
Merci de ta réponse.
Non elles sont existantes (status 200 OK). Je les aies rendu accessible que lorsqu'un membre est connecté.
Je sais qu'il est préférable d'attendre qu'elles soient désindexées plutôt que de les retirer et se retrouver avec 300 urls en 404 même si j'ai une page personnalisée en 404.
C'est surtout qu'elles n'ont pas d'intérêt à être indexées. Elles sont utiles pour un membre connecté mais pas à draguer du trafic dans les serps.

Théoriquement, je ne risque rien à les mettre accessible au crawl non ?
Normalement, une page noindex est crawlée mais pas indexée non ? Donc elles devraient être mise à jour rapidement puisque googlebot pourra les découvrir.
C'est surtout que j'en ai 10 000 urls comme ça donc niveau qualité pour l'indexation, c'est pas top ?!

Au pire, je peux les rendre accessible et surveiller que google les crawl et les retirent. Puis je les rend de nouveau accessible qu'une fois connecté.
 
WRInaute accro
Mais vu qu'elles ne sont accessibles que pour un utilisateur connecté, quelle entête renvoient-elles lors du passage du moteur ?
 
WRInaute accro
En fait pour être clair, c'est une page d'informations succinctes sur un membre. C'est une page de profil avec un avatar et éventuellement une description de 250 car. Au début je l'avais mise accessible car je voulais cibler un référencement local. C'est des profils pro genre coiffeur paris ainsi de suite mais vu qu'en fait, je me suis ravisé car je trouve que ces pages sont de faibles qualités alors je préfère que ces informations soient dispo qu'une fois connecté. Donc hors connexion, la page n'est pas visible mais elle est accessible status 200.
Voilà la raison
 
Dernière édition:
Olivier Duffez (admin)
Membre du personnel
Si elles sont dans un répertoire à part, c'est très facile à désindexer( une demande dans search console) puis à bloquer au crawl dans le fichier robots.txt
 
WRInaute accro
Merci de votre aide.
Oui elles sont dans un répertoire à part.
Quand tu parles de "...c'est très facile à désindexer( une demande dans search console)..." tu fais allusion à masquer/bloquer temporairement ?
Car ça déjà été tenté !
Oui, mon répertoire "profil" a été retiré dans la commande "site:" assez rapidement. J'ai laissé au moins 2 mois pour être certain qu'il en tienne compte au bout d'un moment mais ensuite, lorsque j'ai retiré ce bloquage temporaire... pfffff.... rien n'a changé !

Extrait de console search google
Code:
Supprimez temporairement vos URL des résultats de recherche. Pour supprimer un contenu définitivement, vous devez supprimer ou mettre à jour la page source.
Dans mon cas, je ne veux pas supprimer ces pages, je veux juste les désindexer donc méta "noindex", non ? Je mets à jour la page source.

Ensuite, bloqué par robots.txt ?? Là, je ne te suis pas ?! N'était-il pas recommandé de laisser une méta "noindex" comme élément de réponse plutôt que de bloquer la source ? Comment google fait pour mettre à jour son index si je lui empêche l'accès à ces pages profil ? Comprends pas ton raisonnement. Tu peux être explicite stp ?

J'imagine que tu veux dire:
1- attendre la désindexation puis...
2- bloquer par robots.txt (pour garantir qu'elles ne seront jamais indexer par la suite)

Merci
 
Dernière édition:
WRInaute accro
ah t'es sûr via robots.txt ? Parce que c'est un non-sens, non ?
Je lui dis de supprimer des pages que je lui empêche d’accéder.
 
WRInaute accro
J'ai fait une capture de la nouvelle console search.
Il exclut correctement certaines de mes pages qui sont d'un autre répertoire (1700 urls) par contre, issu du répertoire "profil" pff il ne veut rien savoir ?!
Mais comment une boite comme ça peut être aussi mauvais en terme de réactivité pff comprends pas ?!
 
WRInaute accro
Mais j'écoutes... j'écoutes ;)

J'ai ajouté le répertoire dans le fichier robots.txt et ajouté le répertoire dans CSG.
mais ça reste comique comme même les directives de google. Voir la capture (encadré en rouge) pffff


Par "autoriser", ne serait-ce pas, de ne surtout pas le renseigner dans le robots.txt. pfff Avec google, on a vraiment tout et son contraire.
 
WRInaute passionné
Eventuellement, mettre aussi la balise noarchive en plus de noindex : "noindex,nofollow,noarchive", ça marche (j'ai fait comme ça aussi pour 12000 profils de membre)
 
Discussions similaires
Haut