WRInaute discret
Bonjour,
Après avoir regardé mes logs, j'ai rédigé mon fichier robots.txt. Est-il correct :
Voici une petite liste de termes retrouvés dans mes logs. Sont ils des robots car je n'ai pas trouvé d'info sur eux ? Ou alors des trucs qui ne sont pas en rapport... Si oui, avez vous l'User Agent à utiliser dans le fichier robots.txt
DigExt
hbtools
Fun web products - simbar
west wind internet protocole
naviwoo
Lb bypi3epttkcxmvkmsob
iearthworm
kalooga
libwww
vmbot (il semble que oui)
Merci pour vos réponses
Greg
Après avoir regardé mes logs, j'ai rédigé mon fichier robots.txt. Est-il correct :
Code:
User-agent: Twiceler
Disallow: /
User-agent: ichiro
Disallow: /
User-agent: FAST Enteprise Crawler
Disallow: /
User-agent: btbot
Disallow: /
User-agent: baiduspider
Disallow: /
User-agent: gigabot
Disallow: /
User-agent: findlinks
Disallow: /
User-agent: ia_archiver
Disallow: /
User-agent: Larbin
Disallow: /
User-agent: *
Disallow: /admin/
Disallow: /Formulaire/
Disallow: /images/
Disallow: /img/
Disallow: /include/
Disallow: /jpcache/
Disallow: /newsletter/
Disallow: /trace_ip/
Disallow: /visite/
Voici une petite liste de termes retrouvés dans mes logs. Sont ils des robots car je n'ai pas trouvé d'info sur eux ? Ou alors des trucs qui ne sont pas en rapport... Si oui, avez vous l'User Agent à utiliser dans le fichier robots.txt
DigExt
hbtools
Fun web products - simbar
west wind internet protocole
naviwoo
Lb bypi3epttkcxmvkmsob
iearthworm
kalooga
libwww
vmbot (il semble que oui)
Merci pour vos réponses
Greg