[Robots.txt] Réindéxer un site suite à une erreur dans le fichier robots.txt

Nouveau WRInaute
Bonjour,

J'ai récemment fait une grossière erreur en manipulant les robots.txt qui m'a coûté la désindexation totale de mon site http://www.allingaming.org
-> La description de ce résultat n'est pas accessible à cause du fichier robots.txt de ce site.

Mon souhait initial était que seulement le site de production (celui avec www) ait un robots.txt permettant l'indexation, mais pas le site de préproduction. (qui avait un fichier spécifique disallow: /)

Ma méthode utilisait le fichier .htaccess avec cette simple règle :
RewriteCond %{HTTP_HOST} !^www.allingaming.org$
RewriteRule ^robots\.txt$ robots-no.txt

Sauf qu'initialement ma règle comportait une erreur, et vu que j'ai mis un peu de temps à m'en rendre compte, tout mon site a été désindéxé. En soit ce n'est pas très grave car j'en suis seulement à la mise en place du site.

Ma question, maintenant que j'ai corrigé l'erreur, est donc : dois-je demander à nouveau aux différents moteurs de recherche de réindéxer mon site, ou dois-je les laisser faire naturellement les choses ?

Merci pour votre aide.
 
WRInaute accro
Mais en validation le site de production sur Webmaster Tools, tu peux "forcer" le crawl (et donc faciliter la réindexation).
 
Discussions similaires
Haut