Desindexer des pages via robots.txt. Bonne prise en compte ?

WRInaute discret
Bonjour à tous,

Voilà je souhaiterai avoir votre confirmation, que pour désindexer des pages dans GG, on peut utiliser le fichier robots.txt avec les commandes qui vont bien disallow: /URL.php et que cette commande est scrupuleusement respectée par Google :?:

Je voudrai être certain que GG ne va pas desindexer d'autres pages que celle que je spécifierai dans mon fichier robots.txt :(

En effet, je souhaite faire disparaître de l'index des pages qui en fait n'existent plus. Combien de temps faut-il compter pour que GG prenne en compte les données du fichier robots.txt ?
J'ai pas trop envie de faire une redirection 301 car ne serait-ce pas considéré comme du spam ?

Merci d'avance pour vos infos.
 
WRInaute accro
Re: Desindexer des pages via robots.txt. Bonne prise en comp

GoldFinger a dit:
Je voudrai être certain que GG ne va pas desindexer d'autres pages que celle que je spécifierai dans mon fichier robots.txt :(
Pourquoi le ferait-il?
Le délai pour moi fut d'au moins 1 mois pour certaines urls, voir plus. Et je ne te parle pas du cache Google : je lui ai interdit la mise en cache pendant 2 mois environ puis ré autorisé avec les bonnes urls.
 
WRInaute accro
le problème est que le robot Google ne check pas le fichier robots.txt à chaque fois qu'il visite le site... :S
 
Discussions similaires
Haut