Méthode anti aspi ?

WRInaute discret
Hello World, :)

j'ai vue plusieurs méthodes anti aspirateur de site et pour le .htaccess j'ai retenu ceci :

Code:
RewriteEngine on 
RewriteCond %{HTTP_USER_AGENT} ^-?$ [OR]
RewriteCond %{HTTP_USER_AGENT} Advanced\ Email\ Extractor [OR]
RewriteCond %{HTTP_USER_AGENT} almaden [NC,OR]
RewriteCond %{HTTP_USER_AGENT} @nonymouse [OR]
RewriteCond %{HTTP_USER_AGENT} Art-Online [OR]
RewriteCond %{HTTP_USER_AGENT} CherryPicker [OR]
RewriteCond %{HTTP_USER_AGENT} Crescent\ Internet\ ToolPack [OR]
RewriteCond %{HTTP_USER_AGENT} DirectUpdate [OR]
RewriteCond %{HTTP_USER_AGENT} Download\ Accelerator [OR]
RewriteCond %{HTTP_USER_AGENT} eCatch [OR]
RewriteCond %{HTTP_USER_AGENT} echo\ extense [OR]
RewriteCond %{HTTP_USER_AGENT} EmailCollector [OR]
RewriteCond %{HTTP_USER_AGENT} EmailWolf [OR]
RewriteCond %{HTTP_USER_AGENT} ExtractorPro [OR]
RewriteCond %{HTTP_USER_AGENT} Fetch\ API\ Request [OR]
RewriteCond %{HTTP_USER_AGENT} flashget [NC,OR]
RewriteCond %{HTTP_USER_AGENT} frontpage [NC,OR]
RewriteCond %{HTTP_USER_AGENT} Go!Zilla [OR]
RewriteCond %{HTTP_USER_AGENT} HTTP\ agent [OR]
RewriteCond %{HTTP_USER_AGENT} HTTPConnect [OR]
RewriteCond %{HTTP_USER_AGENT} HTTrack [OR]
RewriteCond %{HTTP_USER_AGENT} Indy\ Library [OR]
RewriteCond %{HTTP_USER_AGENT} IPiumBot\ laurion(dot)com [OR]
RewriteCond %{HTTP_USER_AGENT} Kapere [OR]
RewriteCond %{HTTP_USER_AGENT} libwww-perl [OR]
RewriteCond %{HTTP_USER_AGENT} Microsoft\ URL\ Control [OR]
RewriteCond %{HTTP_USER_AGENT} minibot\(NaverRobot\) [OR]
RewriteCond %{HTTP_USER_AGENT} NICErsPRO [OR]
RewriteCond %{HTTP_USER_AGENT} NPBot [OR]
RewriteCond %{HTTP_USER_AGENT} Offline\ Explorer [OR]
RewriteCond %{HTTP_USER_AGENT} Offline\ Navigator [OR]
RewriteCond %{HTTP_USER_AGENT} Program\ Shareware [OR]
RewriteCond %{HTTP_USER_AGENT} QuepasaCreep [OR]
RewriteCond %{HTTP_USER_AGENT} SiteMapper [OR]
RewriteCond %{HTTP_USER_AGENT} Star\ Downloader [OR]
RewriteCond %{HTTP_USER_AGENT} SurveyBot [OR]
RewriteCond %{HTTP_USER_AGENT} Teleport\ Pro [OR]
RewriteCond %{HTTP_USER_AGENT} Telesoft [OR]
RewriteCond %{HTTP_USER_AGENT} TuringOS [OR]
RewriteCond %{HTTP_USER_AGENT} TurnitinBot [OR]
RewriteCond %{HTTP_USER_AGENT} vobsub [NC,OR]
RewriteCond %{HTTP_USER_AGENT} webbandit [NC,OR]
RewriteCond %{HTTP_USER_AGENT} WebCapture [OR]
RewriteCond %{HTTP_USER_AGENT} webcollage [OR]
RewriteCond %{HTTP_USER_AGENT} WebCopier [OR]
RewriteCond %{HTTP_USER_AGENT} WebDAV [OR]
RewriteCond %{HTTP_USER_AGENT} WebEmailExtractor [OR]
RewriteCond %{HTTP_USER_AGENT} WebReaper [OR]
RewriteCond %{HTTP_USER_AGENT} WEBsaver [OR]
RewriteCond %{HTTP_USER_AGENT} WebStripper [OR]
RewriteCond %{HTTP_USER_AGENT} WebZIP [OR]
RewriteCond %{HTTP_USER_AGENT} Wget [NC,OR]
RewriteCond %{HTTP_USER_AGENT} Wysigot [NC,OR]
RewriteCond %{HTTP_USER_AGENT} Zeus.*Webster [OR]
RewriteCond %{HTTP_USER_AGENT} Zeus [OR]
# 
# Un hôte qui tente de se cacher dans une reverse DNS lookup 
RewriteCond %{REMOTE_HOST} ^private$ [NC,OR] 
# 
# Sites de surveillance du Web (peut nécessiter ipchains) 
RewriteCond %{HTTP_USER_AGENT} traffixer [NC,OR] 
RewriteCond %{HTTP_USER_AGENT} netfactual [NC,OR] 
RewriteCond %{HTTP_USER_AGENT} netcraft [NC,OR] 
# 
# Un faux referrer souvent utilisé 
RewriteCond %{HTTP_USER_AGENT} ^[^?]*iaea\.org [NC,OR] 
# 
# Le referrer "addresses.com" est utilisé par un email address extractor 
RewriteCond %{HTTP_USER_AGENT} ^[^?]*addresses\.com [NC,OR] 
# 
# Bloque les navigateurs se dissimulants avec des lettres et chiffres aléatoires 
RewriteCond %{HTTP_USER_AGENT} [0-9A-Za-z]{15,} [OR] 
RewriteCond %{HTTP_USER_AGENT} ^[0-9A-Za-z]+$ [OR] 
# 
# Un faux referrer utilisé en conjonction avec un formmail exploits 
RewriteCond %{HTTP_USER_AGENT} ^[^?]*\.ideography\.co\.uk [NC] 
RewriteRule .*$ http://www.autre_site.com [R,L] 
# Une redirection interne compte pour 2 hits 
# Une redirection externe compte pour 1 hit

Je me demandais si mon htaccess est correct ? et si c'est pas mieux de faire comme ceci par exemple :
Code:
RewriteCond %{HTTP_USER_AGENT} .*HTTrack [OR]
au lieu de
Code:
RewriteCond %{HTTP_USER_AGENT} HTTrack [OR]

Je me suis également fais un script de blocage d'IP, si vous avez testé d'autres méthodes (également contre les bots à spam) elles sont les bienvenues :)
 
WRInaute accro
donc si tu prend ces mesures c'est que tu a constaté régulièrement que des gens aspiraient ton site, et donc te plombent ta bande passante, non?
sinon aucun intérêt tout court, ta méthode, (peu importe laquelle) pourra tjs être détournée.
 
WRInaute discret
donc si tu prend ces mesures c'est que tu a constaté régulièrement que des gens aspiraient ton site, et donc te plombent ta bande passante, non?
Exactement

J'ai mis un simple blocage par IP et ça me bloque environ 2 aspirateurs ou bots par jour, lorque je cherche d'où proviennent ces IP je constate que se sont des serveurs de spam ou autre chose de pas très catholique.

Donc bien sûr c'est contournable mais ça a le mérite d'en bloquer certains, si à ça je peux coupler avec d'autres méthodes je ne vais pas cracher dessus malgré les conseils inverses des 2 compères ci-dessus :roll:

Alors personne ne connait d'autres méthodes ou pourrait me répondre concernant le .htaccess que j'ai posté svp ? :cry:
 
WRInaute discret
Il n'enlève que le gros, il en reste certains qui passent au travers et le bloquage par IP fais une protection de plus qui marche un minimum vue que j'en ai bloqué quelques une.

Pour l'instant je vais me contenter de ça, si quelqu'un a a un conseil pour améliorer le .htaccess ou une méthode à soumettre elle est la bienvenue.
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut