Bonjour,
Je voudrais n'autoriser que certains robots (ceux qui m'amènent des visiteurs). Ce fichier robots.txt est-il correct ? peut-on fusionner des autorisation pour plusieurs UA en même temps et/ou plusieurs url ?
Ca me permettra ensuite de pouvoir blacklister allègrement les robots qui ne respectent pas ce fichier.
Mais question : est-ce que mon User-agent: * de la fin n'autorise pas implicitement tous les robots, y compris ceux à qui j'ai interdit dès la 1° ligne ?
Si oui, faut-il que je mette tous les UA suivis de mes 2 disallow ou faire une règle pour chaque UA et chaque disallow ?
Je voudrais n'autoriser que certains robots (ceux qui m'amènent des visiteurs). Ce fichier robots.txt est-il correct ? peut-on fusionner des autorisation pour plusieurs UA en même temps et/ou plusieurs url ?
Code:
User-agent: *
Disallow: /
User-agent: Googlebot
User-agent: mediapartner
User-agent: googlebot-image
User-agent: exabot
User-agent: msnbot
User-agent: voila
User-agent: Slurp
Disallow:
User-agent: *
Disallow: /apropos
Disallow: /contact
Mais question : est-ce que mon User-agent: * de la fin n'autorise pas implicitement tous les robots, y compris ceux à qui j'ai interdit dès la 1° ligne ?
Si oui, faut-il que je mette tous les UA suivis de mes 2 disallow ou faire une règle pour chaque UA et chaque disallow ?