Robots.txt ---> Je calle ! Help ;)

WRInaute discret
C'est la première fois que cela m'arrive...

J'installe pour un site: http://www.massiliavet.fr un robots.txt ( http://massiliavet.fr/robots.txt )
Je soumets un sitemap à google: ( http://www.massiliavet.fr/sitemap.xml )

Et google depuis 24 heures malgré plusieurs essais s'obstine à me dire que mon robots.txt bloque 32 pages en donnant des exemples de pages absolument pas concernées par le robots.txt directement ou indirectement (ce qui pourrait etre le cas si Disallow /page pour page/souspage)

Le site est resté 6 mois en noindex avant que je soumette le sitemap débloque l indexation et mette un robots.txt.

Alors ai-je oublié une erreur grossière dans mon robots.txt? Google est-il devenu fou?

Cela fait un peu plus de 24 heures que je bataille.

Vos avis sont les bienvenus !

MERCI :)
 
WRInaute discret
Bon après un test simple, tout permettre:

User-agent: *
Disallow:


GWT m'indique toujours 32 erreurs...avec robots.txt vous avez dit bizarre?
 
Discussions similaires
Haut