Supprimer une page de google uniquement depuis robot.txt ?

WRInaute discret
Bonjour,

Je voudrais savoir si le fait de mettre une URL dans robot.txt en disallow suffisait pour que celle ci soit supprimée de l'index de google ?

Merci
 
WRInaute discret
Bonjour,

J'ai un site perso pour lequel j'ai tout interdit dans le robot.txt et ce depuis maintenant deux ou trois ans.
Google ne vient plus crawler ce site, par contre ce qui avait été indéxé avant la mise en place du robot.txt est toujours dans l'index et je reçoit de temps en temps des visites envoyées par Google.

En résumé pour moi c'est deux choses différentes, si tu veux ne plus être dans l'index il faut demander la suppression des url concernées.

A+
Jean-Denis
 
WRInaute accro
pour info, chez y!, un noindex sur la page, un blocage dans le robots.txt, plusieurs demandes de suppression et 1 an après, la page n'avait pas disparu :twisted:
 
Olivier Duffez (admin)
Membre du personnel
jidébé a dit:
Bonjour,

J'ai un site perso pour lequel j'ai tout interdit dans le robot.txt et ce depuis maintenant deux ou trois ans.
Google ne vient plus crawler ce site, par contre ce qui avait été indéxé avant la mise en place du robot.txt est toujours dans l'index et je reçoit de temps en temps des visites envoyées par Google.

En résumé pour moi c'est deux choses différentes, si tu veux ne plus être dans l'index il faut demander la suppression des url concernées.

A+
Jean-Denis
c'est assez logique : un disallow dans le robots.txt empêche le robot de revenir voir les pages qu'il avait déjà indexées.
Pour les faire supprimer, le plus efficace est en effet de combiner avec une demande de suppression dans Google Webmaster Tools.
Sinon, il vaut mieux mettre une balise meta robots noindex qu'un disallow dans le robots.txt
 
Nouveau WRInaute
+1 pour le meta robots noindex.

sinon, on peut aussi renommer la page, et mettre une page blanche à l'ancienne URL. De mon expérience (pour dé-référencer des fichiers pdf), c'était le plus rapide.
 
Discussions similaires
Haut