Bonjour à tous, j'ai créé un fichier robots.txt mis à la racine de mon site en excluant tous les répertoires du site qui ne doivent pas être scanner par les crawlers. Le problème c'est que lorsque je tape site:monsite.com (sans les www) dans Google, il m'affiche justement la plus part des répertoires que j'avais mis en Disallow dans mon fichier robots.txt. Je ne comprends vraiment pas pourquoi 8O
Quelqu'un aurait'il une idée ?
Quelqu'un aurait'il une idée ?