Comment indiquer à google qu'une page n'existe plus?

WRInaute discret
Salut à tous!

J'ai créé sur un de mes site qui marche trés fort avec google des milliers de pages référencable grâce à mon moteur de recherche et un poil de rewriting.

Depuis qu'il indexe ces pages je perds des positions sur mes requétes principales, j'en ai déduis que le trop grand nombre de pages pas forcement pertinentes ne lui plaisait pas... Je voudrais donc les supprimer.

Paradoxalement il m'envoi pas mal de visiteurs sur ces pages, quelle serait donc la solution pour indiquer à Google que les pages n'existent plus tout en redirigeant les visiteurs vers mon index sans que GG prenne ca pour des pages satelites...

J'ai arrété de linker ces pages depuis mon site mais j'ai peur que les robots mettent beaucoup de temps avant de s'en rendre compte et les supprimer naturellement.

Je suis preneur de vos retours d'expérience :)

Merci.
 
WRInaute passionné
fat-freddy a dit:
J'ai arrété de linker ces pages depuis mon site mais j'ai peur que les robots mettent beaucoup de temps avant de s'en rendre compte et les supprimer naturellement.

Tu crois pas si bien dire...

La page la plus ancienne qui est pourtant avec une redirection 301 à près de 3 ans !!!

Et à chaque fois que je veux enlever le redirect... elle repasse en 404.
Faut dire que c'est certainement un ou des moteurs pas trop mis àç jour mais c'est une réalité...
 
WRInaute impliqué
Bonjour,

Via l'outil Google Webmaster, tu as une option pour supprimer des URLs, voir des repertoires complets.
 
WRInaute accro
- Redirection 301 vers les pages les plus proches, thématiquement parlant.

- Conserver quelques liens vers les anciens URL (comment voulez-vous que GoogleBot crawle des pages si elles ne sont pas liées ? ;) ).

- Une fois disparues de l'index (sur tous les DC), suppression des liens résiduels.
 
WRInaute discret
Une fois que tu auras "désindexé" tes pages, si tu ne veux pas que cela se reproduisent, tu peux créer un fichier robots.txt qui indique où les robots peuvent ou ne peuvent pas aller pour référencer les pages.
 
WRInaute accro
C'est inutile, Zetura: les 301 sont déjà là pour rediriger.
Si tu mets un robots.txt, le bot n'ira pas fetcher la page, et ne considèrera pas la 301 ;)
 
WRInaute passionné
Je ne supprime jamais une page, j'ajoute simplement:

<meta name="robots" content="none">

et elle disparait de l'index.
On peut supprimer le contenu pour réduire l'occupation disque.
 
Discussions similaires
Haut