"Attaques" de mon site (négatif SEO)

Nouveau WRInaute
Bonsoir à tous,

Mon site Internet (un e-commerce) est actuellement victime de ce que je qualifierai "d'attaques" qui, je le crois, visent à me faire perdre des place sur une expression clé sur lequel ledit site se trouve en seconde position et qui est recherché près de 2000 fois par mois.

Ce qui se passe concrètement ce que soudainement, c'est-à-dire dans un intervalle de 3 minutes maximum, entre 30 et 60 "personnes" atterrissent sur la page en question et le quittent aussi tôt (temps passé sur la page 0 seconde, taux de rebond 100%). Cela a bien évidemment pour effet de pourrir les données statistiques me permettant d'évaluer la satisfaction des utilisateurs aussi dite "expérience utilisateur".

Ma question est donc la suivante : Ces attaques peuvent-elles influencer négativement le ranking de la page en question, voire de mon site en entier, et si tel est le cas, est-il possible de s'en prémunir ?

Bien cordialement,

Nino
 
WRInaute accro
Bonjour, déjà repérer l'heure de ces attaques dans les stats puis vérifier dans tes logs à l'heure dite. De là, tu pourras évaluer et connaître la ou les ips qui posent problème et les bloquer par htaccess ou fail2ban si tu gères ton serveur. Attention à ne pas bloquer googlebot loool
 
WRInaute discret
Bonjour,
pas sûr que ce soit une attaque, c'est peut-être simplement un robot.
As-tu regardé la source des visites ? Viennent-elles d'un même utilisateur ou de plusieurs ? D'un pays exotique ?
 
Nouveau WRInaute
Tout d'abord merci pour vos réponses.

@passion : Merci pour la solution proposée ; cela risque cependant d'être bien long et fastidieux dans la mesure où ce sont à chaque fois des "utilisateurs" différent ayant des adresses ip différentes.

@pro-sifflets : J'ai dis attaque parce que c'est le seul terme qui me venais à l'esprit et que j'ignore comment proprement qualifier une telle action. Elles viennent d'une multitude d’utilisateurs, majoritairement basé en France ou du moins comptabilisés comme étant de source française. Sinon j'ai aussi eu droit à des telles vagues d'autres pays francophones comme l'est le Canada.
 
WRInaute accro
Il ne faut pas non plus voir le mal partout.
Cela peut-être un lien présent sur un site tiers et qui t'amène des visites non ciblés ou effectivement une attaque.
Mais une attaque de 30-60 visites en 3 mn... hum... je suis sceptique.
Si l'ip est toujours différente, le gugus peut passer par des proxys.
Dans ces cas-là, je te conseille déjà, de rajouter dans ton fichier robots.txt une liste de robots inutiles.Le fichier de wri est très bien

Ensuite, si ça continue dans le temps, tu n'auras pas le choix que de bloquer une plage IP si certaines régions du monde n'a aucun intérêt pour toi.
 
WRInaute impliqué
Alors tout est possible.
Si c'est un site ecommerce a forte valeur ajoutée, je donne jsute des pistes rencontrées après ça n'a peut être rien a voir et !!! je ne veux pas vous donner des mauvaises idées (elles existent déja) je parle de sites qui font d la pub et vivent d'internet et sur des secteurs concurrentiels.
Aussi les malversations ci dessous sont souvent automatisées et souvent mal programmées, donc ells peuvent par inadvertence atterrir sur un site qui n'a rien a voir avec la cible

1 - les personnes ont acheté de la pub qu'elle quelle soit, et une malversation commune consiste à automatiser le click sur la pub poru faire fondre leur budget webmarketing dans le vide.
Ca arrive souvent même pour adwords chez google, qui fait tout son possible pour déjourer et blacklisterles ip et programmes de malversations de ce type, mais c'est toujours l'épée contre le bouclier et parfois des sommes pharaoniques partent en fumée
Pour les plus petits, c'est la galere car il faut démontrer le clickfraude et si votre buget est de 300€ sur google,
un simple bonhomem qui s'amuse a cliquer dans vos pubs vous plombe le budget, alors imagénez les robots clickeurs

2 - Autre technique pour faire tomber un site, ou simplement le ralentir (donc plomber son business) : le visiter automatiquement. Les hebergeurs, les outils... sont capables jusqu'à une certaine limite de frapep de déjouer les adttaques dites DDOS. Mais les rois de la sécurité travailelnt au niveau bas de la pile TCP ip.
Reste le niveau le plus haut = le niveau utilisateur.
Et la, le principe est le suivant : les personnes malveillantes envoie du traffic "normale"
Tout ce qui est imaginale et passera dans les filtres.
Un peu de traffic automatise.. Et parfois le graal de ces personens: une faile dans un robot de facebook qui suit les liens des images. Un serveur TOOR avec un trou ou on declare l'adresse IP de vote serveur web comem serveru TOOR ou il y a le dernier strawars..;

3 - Ce que vous voyez dans les logs, est incomplet (c'est normal, on ne sauvent pas tout dans les logs, pour des raison de taille) et les personnes passent des choses que vous ne voyez pas

4 - des robots autmatisees sont en train de scaner votre site (yandex) ce gerne de robots

Donc : si c'est un site ecommerce important, il ne faut surtout pas négliger la moindre log.
Qui doivent être scrutés régulièrement. Dans la pratique on bloque temporairement ou définitivement toute ip qui a un comportement anormal. Cela doit se faire uatoqmatiquement, et après un regard humain.


Et les logs ce n'est pas seulement le traffic web !!!
 
Discussions similaires
Haut