Bonjour,
Je voulais vous annoncer un heureux événement, la naissance de l'Encyclopédie des Robots. On n'est pas les premiers à publier une liste de robots, crawlers et autres spiders, mais, nous allons utiliser notre expérience de maintenance d'une liste de plus de 5000 annuaires pour faire grandir et tenir à jour cette nouvelle database des robots et UserAgents.
Le but est qu'en quelques secondes, vous puissiez décidez si les visites d'un robot sur votre site sont bénéfiques ou non. Vous pourrez alors l'exclure ou pas, en connaissance de cause.
Actuellement, pour chaque robot référencé, vous trouvez :
- le nom du propriétaire du robot ou de l'auteur du logiciel
- sa nationalité
- le type de robot (pour savoir si ce robot crawle le site ou s'il se contente de lire une page)
- une description du service concerné
- le UserAgent transmis aux serveurs web visités
- la plage d'adresses depuis laquelle le robot travaille
- une URL contenant des informations complémentaires
- les possibilités de restriction d'accès supportées par ce robot : robots.txt ou META ou autres
- le UserAgent à utiliser dans le robots.txt
- la date de mise à jour
Commentaires et critiques plus que bienvenus.
Jean-Luc
Je voulais vous annoncer un heureux événement, la naissance de l'Encyclopédie des Robots. On n'est pas les premiers à publier une liste de robots, crawlers et autres spiders, mais, nous allons utiliser notre expérience de maintenance d'une liste de plus de 5000 annuaires pour faire grandir et tenir à jour cette nouvelle database des robots et UserAgents.
Le but est qu'en quelques secondes, vous puissiez décidez si les visites d'un robot sur votre site sont bénéfiques ou non. Vous pourrez alors l'exclure ou pas, en connaissance de cause.
Actuellement, pour chaque robot référencé, vous trouvez :
- le nom du propriétaire du robot ou de l'auteur du logiciel
- sa nationalité
- le type de robot (pour savoir si ce robot crawle le site ou s'il se contente de lire une page)
- une description du service concerné
- le UserAgent transmis aux serveurs web visités
- la plage d'adresses depuis laquelle le robot travaille
- une URL contenant des informations complémentaires
- les possibilités de restriction d'accès supportées par ce robot : robots.txt ou META ou autres
- le UserAgent à utiliser dans le robots.txt
- la date de mise à jour
Commentaires et critiques plus que bienvenus.
Jean-Luc