anti robot spameur

WRInaute impliqué
Bonjour,

Je cherche un script ou autre anti robot spamer. Car j'ai essayer avec anti-bot-question-mod_v_3_0_0 mais j'arrive pas à l'installer . alors je cherche autres chose. Merci de m'aider. Bonne journée
 
WRInaute accro
Tu mets ce code dans un fichier .htaccess et tu upload ce fichier à la racine de ton serveur.
Dans les paranthèses, tu peux mettre autant de sites que tu le veux.

Code:
SetEnvIfNoCase Referer ".*(urldusitepourrisansle protocole|autresitepourri|encoreunautresitepourri).*" spammer=yes
Order allow,deny
allow from all
deny from env=spammer

...je viens encore d'en rajouter 2 ce soir, pour moi c'est la meilleur solution car ca renvoi bien au serveur qui spam et qui ne spam pas.
 
WRInaute impliqué
Bonjour,

Merci pour ton aide. Mais quel site que je doit méttre entre les paranthése ? car mon problème ces des robot qui s'insécrivent réguliérement sur mon forum. je maist quoi ?

Merci de m'aider
 
WRInaute impliqué
Merci KOogar, J'ai pas bien compris le cod Est-ce que c'est possbile de me l'écrire STP . et je doit le méttre dans quel fichier et avec quel nom. ça ser atrès sympa de ta part.

Merci, j'attends ta réponse.

PS: j'éspére que ce code ne bloque pas les moteures de recherche comme google, yahoo etc...
 
WRInaute accro
ok ok je te remet le code :

Code:
RewriteEngine on
RewriteCond %{HTTP_USER_AGENT} acoi [NC,OR]
RewriteCond %{HTTP_USER_AGENT} anon [NC,OR]
RewriteCond %{HTTP_USER_AGENT} asptear [NC,OR]
RewriteCond %{HTTP_USER_AGENT} bandit [NC,OR]
RewriteCond %{HTTP_USER_AGENT} cache [NC,OR]
RewriteCond %{HTTP_USER_AGENT} cj.spider [NC,OR]
RewriteCond %{HTTP_USER_AGENT} collect [NC,OR]
RewriteCond %{HTTP_USER_AGENT} combine [NC,OR]
RewriteCond %{HTTP_USER_AGENT} control [NC,OR]
RewriteCond %{HTTP_USER_AGENT} contrpl [NC,OR]
RewriteCond %{HTTP_USER_AGENT} contype [NC,OR]
RewriteCond %{HTTP_USER_AGENT} copier [NC,OR]
RewriteCond %{HTTP_USER_AGENT} copy [NC,OR]
RewriteCond %{HTTP_USER_AGENT} dnload [NC,OR]
RewriteCond %{HTTP_USER_AGENT} download [NC,OR]
RewriteCond %{HTTP_USER_AGENT} dsns [NC,OR]
RewriteCond %{HTTP_USER_AGENT} dts.agent [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ecatch [NC,OR]
RewriteCond %{HTTP_USER_AGENT} email [NC,OR]
RewriteCond %{HTTP_USER_AGENT} fetch [NC,OR]
RewriteCond %{HTTP_USER_AGENT} filehound [NC,OR]
RewriteCond %{HTTP_USER_AGENT} flashget [NC,OR]
RewriteCond %{HTTP_USER_AGENT} frontpage [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ftp [NC,OR]
RewriteCond %{HTTP_USER_AGENT} fuck [NC,OR]
RewriteCond %{HTTP_USER_AGENT} getright [NC,OR]
RewriteCond %{HTTP_USER_AGENT} getter [NC,OR]
RewriteCond %{HTTP_USER_AGENT} go.zilla [NC,OR]
RewriteCond %{HTTP_USER_AGENT} go.ahead.got.it [NC,OR]
RewriteCond %{HTTP_USER_AGENT} grab [NC,OR]
RewriteCond %{HTTP_USER_AGENT} grub.client [NC,OR]
RewriteCond %{HTTP_USER_AGENT} httpget [NC,OR]
RewriteCond %{HTTP_USER_AGENT} httrack [NC,OR]
RewriteCond %{HTTP_USER_AGENT} hyperspin [NC,OR]
RewriteCond %{HTTP_USER_AGENT} installshield.digitalwizard [NC,OR]
RewriteCond %{HTTP_USER_AGENT} internetseer [NC,OR]
RewriteCond %{HTTP_USER_AGENT} jobo [NC,OR]
RewriteCond %{HTTP_USER_AGENT} konqueror [NC,OR]
RewriteCond %{HTTP_USER_AGENT} leech [NC,OR]
RewriteCond %{HTTP_USER_AGENT} libwww-perl [NC,OR]
RewriteCond %{HTTP_USER_AGENT} lwp [NC,OR]
RewriteCond %{HTTP_USER_AGENT} mailto [NC,OR]
RewriteCond %{HTTP_USER_AGENT} mister.pix [NC,OR]
RewriteCond %{HTTP_USER_AGENT} moozilla [NC,OR]
RewriteCond %{HTTP_USER_AGENT} netants [NC,OR]
RewriteCond %{HTTP_USER_AGENT} newt [NC,OR]
RewriteCond %{HTTP_USER_AGENT} offline [NC,OR]
RewriteCond %{HTTP_USER_AGENT} oliverperry [NC,OR]
RewriteCond %{HTTP_USER_AGENT} pavuk [NC,OR]
RewriteCond %{HTTP_USER_AGENT} picture [NC,OR]
RewriteCond %{HTTP_USER_AGENT} pingalink [NC,OR]
RewriteCond %{HTTP_USER_AGENT} publish [NC,OR]
RewriteCond %{HTTP_USER_AGENT} python.urllib [NC,OR]
RewriteCond %{HTTP_USER_AGENT} registry.verify [NC,OR]
RewriteCond %{HTTP_USER_AGENT} scan [NC,OR]
RewriteCond %{HTTP_USER_AGENT} snag [NC,OR]
RewriteCond %{HTTP_USER_AGENT} softwing [NC,OR]
RewriteCond %{HTTP_USER_AGENT} strip [NC,OR]
RewriteCond %{HTTP_USER_AGENT} stamina [NC,OR]
RewriteCond %{HTTP_USER_AGENT} surveybot [NC,OR]
RewriteCond %{HTTP_USER_AGENT} teleport [NC,OR]
RewriteCond %{HTTP_USER_AGENT} t.h.u.n.d.e.r.s.t.o.n.e [NC,OR]
RewriteCond %{HTTP_USER_AGENT} turnitinbot [NC,OR]
RewriteCond %{HTTP_USER_AGENT} udmsearch [NC,OR]
RewriteCond %{HTTP_USER_AGENT} webcollage [NC,OR]
RewriteCond %{HTTP_USER_AGENT} webfilter.robot [NC,OR]
RewriteCond %{HTTP_USER_AGENT} webinator [NC,OR]
RewriteCond %{HTTP_USER_AGENT} webreaper [NC,OR]
RewriteCond %{HTTP_USER_AGENT} webster [NC,OR]
RewriteCond %{HTTP_USER_AGENT} webwasher [NC,OR]
RewriteCond %{HTTP_USER_AGENT} wget [NC,OR]
RewriteCond %{HTTP_USER_AGENT} wildsoft [NC,OR]
RewriteCond %{HTTP_USER_AGENT} wwwoffle [NC,OR]
RewriteCond %{HTTP_USER_AGENT} zip [NC]
RewriteRule ^.* - [F]

Google et Yahoo ne sont pas dans la liste, donc aucun risque de ce coté. Tes moteurs préférés continuerons de visiter ton site.

Pour l'installer. Tu dois créer un fichier .htaccess, placer le code dans ce fichier et uploader ce fichier à la racine de ton serveur (ftp)

Comme tu peux le voir, ce fichier .htaccess n'a pas d'extention et il a 1 point (.) devant, car c'est un fichier systeme pour le serveur.

Au cas ou ton windows t'empeche de créer un fichier sans l'extention :
Tu peux créer 1 fichier htaccess.txt
l'uploader sur le serveur
et le renommer directement sous ton ftp en .htaccess
 
WRInaute occasionnel
C'est pas un peu lourd de cgharger un fichier htaccess ?
Je me suis toujours demandé les ressources que ça prenait....
 
WRInaute discret
Peu de ressources comparé aux accès de certains robots. Par contre, il faut faire attention car cela n'empêche pas forcément l'accès aux robots qui s'inscrivent et spamment et de toutes façons n'arrête que les robots qui s'identifient.
Attention aussi à ce qu'on bloque : pourquoi bloquer Konqueror (navigateur Linux) ? turnitinbot quand son site diffuse des tutoriels ? webwasher qui n'est qu'un filtre ? internetseer qui ne consomme pas de bande passante et ne visite que les sites qui lui sont soumis ...
 
Discussions similaires
Haut