Le bot Ezooms/1.0; ezooms.bot@gmail.com

Discussion dans 'Administration d'un site Web' créé par zeb, 13 Mars 2012.

Tags:
  1. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    Mozilla/5.0 (compatible; Ezooms/1.0; ezooms.bot@gmail.com) vous connaissez ?
    ezooms -> seo moz ?
     
  2. Douf
    Douf WRInaute discret
    Inscrit:
    9 Juillet 2005
    Messages:
    81
    J'aime reçus:
    0
    Re: Bot

    Même question, ce bot passe beaucoup (trop) à mon goût sur mon site, sans savoir ce qu'il représente.

    Je n'ai rien trouvé (en français) sur google, hormis qu'il ne respecterait pas le fichier "robot.txt"

    http://opentruc.fr/wiki/BadRobots
     
  3. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    Re: Bot

    Sans réponse j'ai pas réfléchi 5 mn j'ai ban :wink: je m'en porte pas plus mal d'ailleurs. (juste pour te donner l'issue de mon histoire avec ce bot casse bonbon)
     
  4. Douf
    Douf WRInaute discret
    Inscrit:
    9 Juillet 2005
    Messages:
    81
    J'aime reçus:
    0
    J'hésitais à faire la même solution.

    Il n'existe aucune information sur ce bot, donc on peut supposer qu'il est mauvais... ;-)
     
  5. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    bah j'inverserai plutôt ta proposition : sachant qu'on a aucune info sur ce bot il ne présente aucun intérêt ... de la à conclure qu'il est mauvais c'est peut être un soupçon exagéré.
     
  6. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    Je Up ce sujet car il porte sur le même éternel souci (les bots) et pour savoir si quelqu’un connais celui ci :

    -http://crawler.sistrix.net/ le domaine conduit a ceci : -http://www.sistrix.de/ qui ne m'inspire pas beaucoup j'ai donc bloqué ce truc.

    Si vous connaissez je veux bien un retour.
     
  7. Marie-Aude
    Marie-Aude WRInaute accro
    Inscrit:
    5 Juin 2006
    Messages:
    16 371
    J'aime reçus:
    2
    c'est une sorte de seomoz allemand, plutôt correctement considéré
     
  8. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    Bah le pauvre il ira pointer aux abonnés 403 malgré sa bonne réputation. J'ai un peu de mal avec les outils SEO qui pompent un site complet pour leur services, si encore c'était un moteur de recherche ou un service dédié à tous le monde je dis pas mais un truc pour webmaster il ira se brosser.

    Merci pour l'info en tous cas :wink:
     
  9. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 712
    J'aime reçus:
    2
    Re: Bot

    Viré aussi
    Et à peine je lui rends le droit de passer qu'il scanne comme un fou
     
  10. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    ça serait pas mal si on avait une liste d'IP / UA quelques part sur le forum histoire de partager ce qu'on bloque ou pas et pourquoi (j'ai pas cherché mais j'ai pas vue de mémoire car j'aurais surement mis en marque page).
     
  11. p4y0u7
    p4y0u7 Nouveau WRInaute
    Inscrit:
    11 Décembre 2010
    Messages:
    7
    J'aime reçus:
    0
    Bonjour,

    vous faites comment pour bloquer un bot ? je suppose que c'est avec le .htaccess ?
     
  12. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 417
    J'aime reçus:
    0
    un gentil bot se bloque avec robots.txt, pour les autres c'est htaccess
     
  13. p4y0u7
    p4y0u7 Nouveau WRInaute
    Inscrit:
    11 Décembre 2010
    Messages:
    7
    J'aime reçus:
    0
    tu pourrai donner le code pour bloquer un bot méchant stp ?
     
  14. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    Code:
    	order allow,deny
    	deny from ***.***.***.***
    	allow from all
     
  15. p4y0u7
    p4y0u7 Nouveau WRInaute
    Inscrit:
    11 Décembre 2010
    Messages:
    7
    J'aime reçus:
    0
  16. bmct
    bmct Nouveau WRInaute
    Inscrit:
    21 Juillet 2004
    Messages:
    31
    J'aime reçus:
    0
    D'après ce site :
    http://www.graphicline.co.za/blogs/what-is-ezooms-bot
    Son rôle n'est pas vraiment connu, mais vu son type d'activité (suivi des flux RSS) il pourrait servir à plagier du contenu.
    D'autre part vu qu'il ne respecte pas le fichier robots.txt et que l'adresse ezooms.bot@gmail.com qu'il donne n'existe pas, son but ne doit pas être très avouable.
     
  17. patapon87
    patapon87 WRInaute passionné
    Inscrit:
    12 Janvier 2010
    Messages:
    1 135
    J'aime reçus:
    0
    Re: Bot

    Sans avoir un dédié on a moyen d'avoir ce genre d'infos ?
     
  18. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 712
    J'aime reçus:
    2
    J'utilise TraceIP sur un mutu.
     
  19. patapon87
    patapon87 WRInaute passionné
    Inscrit:
    12 Janvier 2010
    Messages:
    1 135
    J'aime reçus:
    0
    Ok je viens de trouver ça, merci pour l'info !
     
  20. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 417
    J'aime reçus:
    0
    Re: Bot

    normalement, sur les mutu tu dois avec accès à tes logs bruts, tu peux donc voir qui crawle et à quelle fréquence
     
  21. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    Un UP pour vous demander votre avis sur eux -> -http://www.proximic.com/info/spider.php
    Il commencent a crawler de plus en plus fort avec une large plage IP et je me demande si les laisser passer présente un intérêt quelconque.

    exemple pour aujourd'hui sous la forme nombre de pages consultées / ip / UA / date :

    232 75.101.248.35 Mozilla/5.0 (compatible; proximic; +http://www.proximic.com/info/spider.php) 2012 September 13
    224 23.20.43.64 Mozilla/5.0 (compatible; proximic; +http://www.proximic.com/info/spider.php) 2012 September 13
    217 23.20.83.140 Mozilla/5.0 (compatible; proximic; +http://www.proximic.com/info/spider.php) 2012 September 13
    213 107.22.85.152 Mozilla/5.0 (compatible; proximic; +http://www.proximic.com/info/spider.php) 2012 September 13
    213 184.73.56.184 Mozilla/5.0 (compatible; proximic; +http://www.proximic.com/info/spider.php) 2012 September 13
    207 50.19.193.105 Mozilla/5.0 (compatible; proximic; +http://www.proximic.com/info/spider.php) 2012 September 13
    205 50.17.55.6 Mozilla/5.0 (compatible; proximic; +http://www.proximic.com/info/spider.php) 2012 September 13
    166 107.22.48.215 Mozilla/5.0 (compatible; proximic; +http://www.proximic.com/info/spider.php) 2012 September 13
    153 107.22.134.64 Mozilla/5.0 (compatible; proximic; +http://www.proximic.com/info/spider.php) 2012 September 13
    119 23.23.14.131 Mozilla/5.0 (compatible; proximic; +http://www.proximic.com/info/spider.php) 2012 September 13
    118 67.202.41.178 Mozilla/5.0 (compatible; proximic; +http://www.proximic.com/info/spider.php) 2012 September 13
    105 23.22.87.83 Mozilla/5.0 (compatible; proximic; +http://www.proximic.com/info/spider.php) 2012 September 13

    C'est pas encore mortel pour le serveur (loin s'en faut mais si c'est pour des nèfles je préfère virer)
     
  22. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 417
    J'aime reçus:
    0
    je ne laisser crawler mes sites qu'aux seuls grands moteurs francophones, vu que mes visiteurs ciblés sont de pays francophones
     
  23. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    comme je ne les connais pas c'est ça qui me fait hésiter :

    Mais j'avoue avoir une furieuse envie de lâcher une rafale sur le truc.

    [​IMG]
     
  24. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    Un Up de ce sujet pour vous demander si vous connaissez :

    IP : 198.211.124.200 / UA : Pingoscope

    Rien que le nom m'amuse je pense que je vais bloquer mais si vous connaissez je veux bien quelques informations.
     
  25. JanoLapin
    JanoLapin WRInaute accro
    Inscrit:
    21 Septembre 2008
    Messages:
    4 250
    J'aime reçus:
    0
    @webrankinfo: l'idée avancée par zeb d'unf forum dédiée à la liste des bots et de leurs ip associées me semble une idée intéressante à mettre en place, et surtout sur un forum: ça permettrait à chacun de commenter, enrichir, demander l'avis, etc.. On est donc loin d'une simple liste.

    Reste la question de la MàJ de la dite liste, mais ça ne doit pas être ingérable collectivement.
     
  26. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    Surtout qu'on entre dans un contexte web où on sera de plus en plus agressé par des bots de toutes sortes.

    Dans 5 ans le premier gus qui dézipera un freeglobe aura dedans sont bot d'exploration des sites inscrits etc ... (je schématise mais c'est l'idée)

    Le mois derniers j'avais un pèlerin allemand avec un blog de geek SEO derrière qui me crawlait le site (1M de page si tu prend toutes les urls). Bref laisser passer ce genre de gugus qui a que faire du robots txt c'est la plaie en ressource (d'un autre côté ça fait marcher les dédiés et c'est la mort du mutu (conspiration des hébergeurs :lol: )).

    En plus faut qu'on mette un peut de bande passante de côté pour Qwant ... :D

    edit > sinon il est deny chez moi celui là -> 198.211.124.200 (en attendant plus d'information ou une demande de permission de crawl)
     
  27. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    Tjs dans la série des bots j'en ai un qui me casse les bombons :
    celui là il attaque les pages en POST sur mon formulaire de contact ! Le plus étrange c'est que je voie pas le rapport avec ahrefs.com
     
  28. ybet
    ybet WRInaute accro
    Inscrit:
    22 Novembre 2003
    Messages:
    7 516
    J'aime reçus:
    1
    Je vois qu'on retrouve tous les mêmes :mrgreen:
    Moi c'est les russes qui m'inquiètent: après s'être fait supprimé le contenu, deux aujourd'hui qui passe par le moteur Yandex.
    Je viens aussi de supprimer 8.35.200.0 - 8.35.207.255 effectivement ca appartient à Google mais un peu trop de visites bizarres avec http://code.google.com/appengine. Quand on sait qu'aguena est hébergé chez Google, ca devient deplus en plus chaud.

    31.204.152.0 - 31.204.153.255 plage de serveurs hollandais avec tentative de post sur le forum.

    PS: si vous me laissez continuer ..... je remplis le Forum et plus de ralentissements sur le forum de WRI. :mrgreen:

    PS2: attention à l'user_agent BOT/0.1 (BOT for JCE) , c'est probablement un virus mais il est repris sur des plages de serveurs ET de visiteurs (même des "attaques" d'adresse IP de Microsoft).
     
  29. ybet
    ybet WRInaute accro
    Inscrit:
    22 Novembre 2003
    Messages:
    7 516
    J'aime reçus:
    1
    C'est une plage de serveurs de Digital Ocean (USA), tu peux carrément supprimer la plage 198.211.96.0 - 198.211.127.255. Par contre, il a déménagé (pas de visites chez moi en 5 mois.
     
Chargement...
Similar Threads - bot Ezooms ezooms Forum Date
Comment augmenter la fréquence de passage de GoogleBot Crawl et indexation Google, sitemaps Mardi à 23:41
Search Console Prestashop | Robot.txt bloque des URL mais Outil de test du fichier robots.txt l'Authorise... Crawl et indexation Google, sitemaps 21 Novembre 2019
Search Console Site FR en attente de Multilangue + syntaxe Robot.txt Référencement international (langues, pays) 5 Novembre 2019
Search Console Images bloquées ... malgré absence de robots.txt Crawl et indexation Google, sitemaps 31 Octobre 2019
Aide sur le format de mon fichier robots.txt Crawl et indexation Google, sitemaps 25 Octobre 2019
Site inaccessible pour GoogleBot Crawl et indexation Google, sitemaps 21 Octobre 2019
Problèmes d'indexation et robots.txt Crawl et indexation Google, sitemaps 14 Octobre 2019
Réécriture et robots.txt Débuter en référencement 10 Octobre 2019
Page de test et fichier Robots.txt Crawl et indexation Google, sitemaps 9 Octobre 2019
Robots.txt et test url Crawl et indexation Google, sitemaps 9 Octobre 2019
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice