Visite de Wget sur mon site : risques ? moyen de se défendre ?

Nouveau WRInaute
Visite de Wget sur mon site : risques ? moyen de se défendre

Bonjour,

je regarde mes stats ce matin et je découvre qu'un robot nommé Wget a rendu une petite visite (1 hit) à mon site, OVH (mon hébergeur) m'indique qu'il s'agit d'un aspirateur 8O :evil:

J'ai donc recherché un peu le net et effectivement il s'agit bien d'un aspirateur de site RE 8O :evil:

J'ai deux questions :

- c'est grave docteur ? est ce que cela veut dire : DANGER :!: mon site va se retrouver totalement copié, piraté, vandalisé, massacré.... en bref : quels sont les risques réels face à une telle visite ?

- S'il existe de réels risques, quels sont les moyens pour remonter à la source, détecter la mise en ligne du contenu aspiré, retrouver le type qui a fait ça pour lui... (je vous laisse imaginer :twisted: )

Merci pour votre aide.
 
WRInaute occasionnel
Si les robots qui accèdent à mes pages ne sont pas dans ma 'liste verte' ils sont bloqués.
Pas de question à ce poser comme ça. :wink:
 
Nouveau WRInaute
Greendog a dit:
Si les robots qui accèdent à mes pages ne sont pas dans ma 'liste verte' ils sont bloqués.
Pas de question à ce poser comme ça. :wink:

Merci pour ta réponse mais cela ne m'aide pas beaucoup.
Es-tu chez OVH ? si oui, il faut aller où dans le manager pour créer cette fameuse "liste verte", j'ai beau chercher, je trouve rien qui correspond.

Sinon, c'est grave ? il faut vraiment que je m'inquiète ?
 
WRInaute passionné
Attention, Wget est certe un robot, mais il est souvent utilisé par l'équivalent de la CRONTABLE Unix sur les serveurs Windows pour les tâches récurrentes (c'est le cas sur mon mutu).
 
Nouveau WRInaute
:!: Moi aussi j'ai eu la surprise (désagréable) de constater le passage de 2 aspirateurs de site : Wget et Curl.

Les solutions anti-aspirateurs sont contraignantes et j'ai peur que Google soit bloqué...

Mais quels sont les réels dangers ? A l'heure de l'adsl illimité, pourquoi aspirer un site ? La copie, télécharger des fichiers d'un coup, récupérer les codes sources ?

Que pensent les webmasters expérimentés de ces visites "peu courtoises" ?
 
WRInaute accro
webmaster93 a dit:
Que pensent les webmasters expérimentés de ces visites "peu courtoises" ?
Tout dépend de l'usage. Si c'est à dose raisonnable, pour faire de la veille et RSSiser des contenus partiels, why not...
 
WRInaute accro
webmaster93 a dit:
Mais quels sont les réels dangers ? A l'heure de l'adsl illimité, pourquoi aspirer un site ?
faire un mfa sans travailler...
et après, ton site disparait dans les profondeurs du classement pour duplicate content :twisted:
 
Nouveau WRInaute
Salut,

Rien de bien grave, surtout si ce n'est qu'une seul requête.
J'utilise regulièrement wget pour télécharger les images d'un site, sans passer par un intrminable "Enregister sous".

L'user agent peut-être modifier dans wget exemple :
wget --user-agent="Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; .NET CLR 1.1.4322)" http://www.SiteATelecharger.com

Dans ce cas du côté serveur, il sera détecté en tant que Internet Explorer 6 et passera inaperçue.


Il n'y a pas vraiment de parade pour bloquer un aspirateur de site. Chaque d'entre eux proposent beaucoup d'option pour justement passer inaperçue. Pour l'instant aucun site que j'ai voulu télécharger n'a posé de problème.
Je pense que créer un scripte pour bloquer ce genre de logiciel est une perte de temps, et ne pourra, dans le meilleur des cas, que dissuader un débutant.
 
WRInaute passionné
ça peut tout aussi bien être un aspirateur.... du type qui aspire ton site pour pouvoir simplement le regarder en local... Si si... certains ont encore des connections à 28Kb/s...
 
Discussions similaires
Haut