Bonsoir,
J'ai tendance à bloquer toutes les requêtes qui me semblent suspectes. J'ai un script PHP qui s'exécute avant l'affichage de chaque page et qui décide de bloquer la requête ou non.
Par "bloquer", j'entends que j'affiche un captcha maison. Si la requête provient d'un humain, il peut passer.
De cette manière, je pense bloquer tous les crawlers et aspirateurs de sites. J'autorise Googlebot, Bingbot, etc., en vérifiant l'IP. Je logue les requêtes bloquées qui s'identifient comme des robots (User-Agent) pour autoriser manuellement ou non ces robots.
Est-ce une bonne ou une mauvaise idée ? Je me demande si cela ne fait pas plus de mal que de bien à mon site.
Un avis ?
J'ai tendance à bloquer toutes les requêtes qui me semblent suspectes. J'ai un script PHP qui s'exécute avant l'affichage de chaque page et qui décide de bloquer la requête ou non.
Par "bloquer", j'entends que j'affiche un captcha maison. Si la requête provient d'un humain, il peut passer.
De cette manière, je pense bloquer tous les crawlers et aspirateurs de sites. J'autorise Googlebot, Bingbot, etc., en vérifiant l'IP. Je logue les requêtes bloquées qui s'identifient comme des robots (User-Agent) pour autoriser manuellement ou non ces robots.
Est-ce une bonne ou une mauvaise idée ? Je me demande si cela ne fait pas plus de mal que de bien à mon site.
Un avis ?