WRInaute discret
Bonjour,
J'ai lu l'article de Dan Hetzel concernant le fichier .htaccess, et en particulier la partie "Débarrassons-nous des visiteurs indésirables"
Tou d'abord, je me demande si au lieu d'utiliser une RewriteCond, on ne peut pas simplement mettre un "Deny from" pour faire cela ? Oui ou Non ?
Par expemple afin de se débarrasser du robot laurion, on ne peut pas aussi écrire :
?
Ou bien il vaut mieux utiliser cette écriture bien plus compliquée (enfin surtout le RewriteRule ^.*$ - [F]) :
?
De plus, la dernière ligne "RewriteRule ^.*$ - [F]" est obligatoire ?
Dernière question, à part le robot de laurion, quels robots faudrait-il systématiquement aussi inclure dans ces interditions de visite ?
J'ai lu l'article de Dan Hetzel concernant le fichier .htaccess, et en particulier la partie "Débarrassons-nous des visiteurs indésirables"
Tou d'abord, je me demande si au lieu d'utiliser une RewriteCond, on ne peut pas simplement mettre un "Deny from" pour faire cela ? Oui ou Non ?
Par expemple afin de se débarrasser du robot laurion, on ne peut pas aussi écrire :
Code:
Deny from \.laurion\.(com|net)
?
Ou bien il vaut mieux utiliser cette écriture bien plus compliquée (enfin surtout le RewriteRule ^.*$ - [F]) :
Code:
RewriteEngine on
RewriteCond %{REMOTE_HOST} \.laurion\.(com|net)$
RewriteRule ^.*$ - [F]
?
De plus, la dernière ligne "RewriteRule ^.*$ - [F]" est obligatoire ?
Dernière question, à part le robot de laurion, quels robots faudrait-il systématiquement aussi inclure dans ces interditions de visite ?