Qu'est-ce que ces visites "simple share button" ?

WRInaute occasionnel
Bonjour,

Dans les stats google de mon site internet, je constate parfois des dizaines de visites en provenance d'un site internet intitulé simple-share-button.com, sans mention de page précise (rubrique sites référents).
Lorsque je veux visiter ce site, je suis redirigé vers cette page : -http://sharebutton.org/

Qu'est-ce à dire ?
 
WRInaute accro
C'est un des gros bourrins qui profite de ta naïveté pour faire du trafic. Voir "spam referer".
 
WRInaute accro
Bah il envoie des requêtes Get sur des tonnes d'url avec Curl par exemple en spécifiant une de ses pages comme referer dans le seul but d'apparaître dans les stats des dits sites. Si en plus tu clic c'est net benef pour lui si il fait du CPM par exemple.
Accessoirement il peut pécher les urls des pages d'admin (dans ton cas "google" c'est limité).
Sur les stats public qui affichent des Liens ça peut même lui faire des liens.

Il n'y a rien a faire contre ça mis a part perdre du temps, perso j'ai ban les referers de pays ou je n'ai pas de BL ça calme un peu le jeu (genre russie) mais ça va pas bien loin.
 
WRInaute occasionnel
Ah d'accord... Merci pour ton intéressante réponse, zeb.

Il faut que je me replonge un peu dans les évolutions informatiques récentes...
 
WRInaute occasionnel
Oui justement, cette pourriture me gangrène toutes mes stats google.

Pourtant j'ai réglé les paramètres pour que les visites de bots ne soient pas pris en compte. Alors donc ? Google ne sait-il point différencier un visiteur humain d'un troll numérique ?
 
WRInaute accro
Alorsladaccord a dit:
Google ne sait-il point différencier un visiteur humain d'un troll numérique ?
Non que neni mon cher monsieur.
Bon en plus ces bots à la con n'ont pas une réputation assez grande pour qu'on en fasse cas, et les sites qu'ils "poussent" peuvent aussi avoir (aux yeux de google) une certaine légitimité. Légitimité qui est purement mathématique dans son cas, car s'il faisait preuve de discernement wikipédia aurait disparu depuis longtemps (humour)
 
WRInaute accro
re > j'ai relus le sujet que tu donne ci dessus al technique est viable mais attention a ce que cela impose au serveur. Les htaccess musclés réduisent dramatiquement la réactivité d'un serveur (ce fichier est consulté et évalué pour chaque ressource demandée (image, script, js, pdf, .....))
 
WRInaute occasionnel
Eh bien ça :
zeb a dit:
re > j'ai relus le sujet que tu donne ci dessus al technique est viable mais attention a ce que cela impose au serveur. Les htaccess musclés réduisent dramatiquement la réactivité d'un serveur (ce fichier est consulté et évalué pour chaque ressource demandée (image, script, js, pdf, .....))


Qu'est-ce donc que cette technique viable et ces histoires de htaccess musclés ? Je n'en ai point parlé.
 
WRInaute accro
Ok je parlais de ce sujet sur le spam referer / htaccess

J'en disais que la technique est bonne mais qu'il ne faut pas en abuser car une liste trop longue de mots (contenus dans les noms de domaines spammeur) peut entraîner une forte perturbation du serveur.
En effet le fichier htaccess situé a la racine du site est interprété pour chaque ressource, entendu qu'une page web est une ressource composées de ressources (images, feuilles de style etc.).
Bref les règles exposées dans ce sujet sont certes efficaces et pratiques mais elles demandent individuellement pas mal de calculs a apache et c'est multiplié par chaque requêtes. En résumé tu peux vite épuiser le serveur avec ça.

Ce qui me conduit a la conclusion de pas trop se tracasser avec ce trafic parasite.
 
WRInaute occasionnel
OOOOOKKK, merci zeb.

C'est pas croyable comme les statistiques de fréquentation d'un site internet peuvent être biaisées. Il faut être sacrément prudent quand un webmaster vend son site en déterminant le prix à partir d'un nombre supposé de visiteurs.

Ca me rappelle un type qui vendait des sites internet présentant des titres musicaux, pffouu c'était il y a pas loin de 7 ans de ça, le mec les vendait 400€ après les avoir créé quelques semaines auparavant mais ils affichaient déjà des centaines de milliers de "visiteurs" par jour... Vive les bots...
 
WRInaute accro
Alorsladaccord a dit:
Vive les bots...
Proxy ;-) ...

Certains avancent que le trafic internet est a plus de 50% composé de bots divers (moteurs compris). Je suis pas loin d'y croire vue ce que j'ai perso. Imagine la conso électrique que ça représente 8O Sans parler pollution etc ...
C'est un peut pour ça que je fais des bons avec les sites qui chargent des tonnes de javascripts externes, des widgets à la con etc ... Le trafic web est une vrai poubelle.
 
WRInaute occasionnel
Pareil, quand je regarde les visiteurs connectés sur mon forum IPB, c'est 50% de robots.


C'est à savoir quand on planifie un nombre de ventes par rapport à ses stats...
 
Nouveau WRInaute
Bonjour,

Je recontre le même problème depuis hier exactement, mais dans des proportions énormes. Disons que sur la seule demi-journée d'aujourd'hui, j'ai plus de visites venant de "sharebuttons.org" que de réels visiteurs. Il faut dire que mon traffic étant tellement faible (je débute), ça se remarque fort quand j'ouvre mon analytics et que je vois 100 visites à mi-journée alors que c'est ce que je fais sur une journée complète.

Mais à lire ce topic, il n'y a rien à faire apparemment. C'est dommage, j'espère que ça ne va pas durer ainsi tout le temps, sinon, je vais avoir des statistiques bien dégueulasses...
 
WRInaute accro
Et encore ... beaucoup de systèmes de stats sont en JS pur on-page, donc ne déclenchent rien si le JS n'est pas interprété par un navigateur ou un système dédié ... bref avec ce genre de stats tu ne vois pas forcement tout le trafic réel :D .
 
Nouveau WRInaute
Pour info j'ai également social-buttons.com qui apparaît dans mes stats.
Ce domaine me renvoie aussi vers http://sharebutton.org/
Après avoir filtré et bloqué le domaine dans google analytics j'ai maintenant une augmentation anormale des visites en "accés direct" de tous les pays.
Je vais donc maintenant modifier mon htaccess pour bloquer ces domaines. :wink:
 
Nouveau WRInaute
Bonjour,

Ayant moi-même ce problème de spam venant de sharebutton.org sur mon site, je me suis penché sur la question.

La clé réside effectivement dans le fichier Htacces. Voici la procédure à suire: http://ads-blocker.com/block-referral-spam/ Désolé c'est en anglais mais c'est relativement facile à comprendre.

Bonne continuation,
 
WRInaute discret
je m'incruste sur ce post car j'ai le même soucis mais j'ai plusieurs questions:
j'ai 2 sites dont un depuis 3 ans et l'autre depuis 3 mois, seul le 2e le plus récent est impacté, comment cela se fait il?

je n'arrête pas de compléter mon htaccess avec de nouveaux domaines car il m'en arrive sans cesse de nouveaux, derniers en date:
site25.simple-share-buttons\.com et site30.simple-share-buttons\.com

Comment peut on protéger un peu mieux son site. car là je dois aller modifier toutes les semaines le htaccess. si l'un de mes sites n'est pas impacté il doit bien y avoir un moyen de contrer ces attaques?
merci de vos réponses.
 
Nouveau WRInaute
Pour ma part, j'ai utilisé le lien fourni plus haut pour bloquer les referers dans mon htaccess, ça à l'air de fonctionner.

Mais depuis, j'ai une quantité de visites directes anormale, ils ne visitent qu'une page (la home) et s'en vont. Ce qui me fait baisser très fort la durée de visite moyenne et me fait exploser mon taux de rebond.

A part bloquer les IP dans mon htaccess, il n'y a guère d'autre solution.
 
WRInaute accro
1/ ce ne sont pas des "attaques"
2/ il est abusif techniquement de parler de "protection"
je n'arrête pas de compléter mon htaccess
Contre-productif .... et même si cela avait de l'importance l'exemple que tu donne est un domaine pas deux donc une ligne voir des dizaines de sites avec un mot "buttons". Il faut relire et comprendre les règles htaccess.
je m'incruste sur ce post
il ne semble pas que tu l'ai lu avec attention car au final la seul conclusion c'est d'ignorer ce genre de truc.
 
WRInaute discret
oui enfin ignorer c'est pas top, ca fausse tout de même les stats. je suis désolée mais je ne trouve pas que ca soit une réponse satisfaisante.
et je n'ai pas dit que j'utilisais des mots clés dans mon htaccess. j'utilise cette fonction:
RewriteCond %{HTTP_REFERER} site30.simple-share-buttons\.com [NC]
 
WRInaute accro
ca fausse tout de même les stats
Non ça fausse tes stats. Perso, mes stats font le distingo entre toutes sortes de visites, vrai humains, robots spammeurs, robots d'indexation, hotlink, ...
Ton souci est que tu souhaite les ignorer chez toi mais cela ne met en lumière que ton incapacité a gérer ce type de trafic qui ne t'intéresse pas directement certes mais qui existe et qu'il faut prendre en compte pour d'autres raisons que savoir combien tu as eu de surfeurs réels sur ton site.
Moi j'y suis pour rien si tu utilise un système de stat que tu ne maîtrise pas car tu ne l'a pas conçu et que ce système est incapable de gérer nativement ce genre d'inconvénient.

j'utilise cette fonction:
RewriteCond %{HTTP_REFERER} site30.simple-share-buttons\.com [NC]
Ce qui confirme ce que je disais tu n'a pas lu attentivement le sujet sinon tu aurais laissé tombé cette technique qui est la moins performante ... pour adopter un système plus général mais qui est plus efficace pour l'exemple que tu soulève. Même là ta ligne est amusante car en la modifiant un chouilla tu économise déjà tu travail en virant tous les sous domaines d'un coup ...
 
WRInaute discret
j'utilise aussi les les filtres google mais pour moi ca n'est pas très logique. c'est du cache misère et ca n'empèche pas les bot de faire leur sale boulot. donc pour moi la réponse qui vise à filtrer ces bot dans les stats n'est toujours pas satisfaisante.
par ailleurs il faut toujours créer des filtres supplémentaires a chaque fois qu'un nouveau bot arrive donc le pb est le même qu'avec le htaccess.
après je n'ai peut être pas les même connaissances que toi mais au moins je cherche et je me renseigne donc ca n'est pas la peine de prendre ce ton condescendant.
enfin j'ai bien lu tout le post et d'autres sujets la dessus, je n'ai fait qu'appliquer une méthode indiquée sur plusieurs sites.

dans tous les cas finalement aucune des 2 méthodes (filtrage google ou htacess) ne semble satisfaisante actuellement et si toi tu semble penser que c'est un problème secondaire ca n'est pas mon cas. quand tu as un bot ou 2 qui traine ca va mais là ca devient vraiment omniprésent et en plus j'aimerais bien comprendre pourquoi ca me le fait sur un seul site et pas les2.
 
Nouveau WRInaute
@cockpitinferno

je suis d'accord avec toi.
La solution de filtrage est une demi-solution!

J'y connais pas grand chose en référencement, mais comment google va "compter" ses visites intempestives ?
 
WRInaute accro
cockpitinferno a dit:
pas la peine de prendre ce ton condescendant.
Ta réponse est pour le moins désagréable aussi ... :wink: Mais bon peu importe ce n'est pas le sujet.
cockpitinferno a dit:
si toi tu semble penser que c'est un problème secondaire
Je ne dis pas qu'il est secondaire explicitement je met en avant le fait que se torturer pour mettre en oeuvre une solution technique qui n'a pas de fin (c'est inhérent au sujet) est contre productif.
Si tu regarde la réalité technique que fait ta contre-mesure htaccess ? elle fournie une réponse http différente à la page sollicitée parfois plus importante en volume de donnée que le traitement normal de la requête (qui est parfois et même souvent juste une requête "head", mais celles là tu ne les voies même pas avec tes stats et pourtant.)
Donc au final tu bouffe de l'énergie pour des clous ... vue d'un point de vu extérieur en équivalent carbone qui pollue le plus ? ... toi.
cockpitinferno a dit:
quand tu as un bot ou 2 qui trainent ça va mais là ça devient vraiment omniprésent
Bah en fait ton propos est intéressant et ouvert surtout a ce sujet. Le trafic sur la toile c'est pas loin de plus de 50% de machines ... si ton système de stat se trouvait sur le serveur tu t'en rendrais compte. C'est dire toute la faiblesse de google et analitycs a ce niveau (et je ne te parle même pas de ce que les pare-feux de l'hébergeur rejettent comme trafic ...).
cockpitinferno a dit:
en plus j'aimerais bien comprendre pourquoi ca me le fait sur un seul site et pas les2.
Il faut que tu te pose la question de comment les cibles sont cherchées ... que ce soit pour le spam de blog, la recherche de failles, ... google est le meilleur amis du gredin. Il est fort probable que certains de tes sites aient un footprint typiquement recherché par les spammeurs.
cockpitinferno a dit:
les filtres google ... c'est du cache misère et ca n'empèche pas les bot de faire leur sale boulot
google et ses stats c'est pas pour te fournir un service c'est pour connaître tout des usagers de ton site et fliquer tout le monde. Quand tu auras compris pourquoi une firme de cette taille fourni un outil gratuit tu auras bien avancé dans ta démarche.
Après oui c'est du cache misère mais tout autant que de prendre en compte uniquement les utilisateurs avec javascript ... En optant pour des stats a base de Tag en Javascript tu fais déjà dans le cache misère si je puis dire.

Concernant le sale boulot des bots tu as raison mais que faire là ou ceux de google sont capables de passer 20 fois sur une page qui ne change pas ... Si vraiment il y avait volonté de rationaliser le trafic il faudrait s'y prendre autrement et c'est pas au niveau site qu'il conviendrait d'intervenir.

A quand le permis de crawler :D
 
WRInaute discret
je te remercie pour cette réponse qui est bien plus approfondie que les 1ères, j'ai été un peu désagréable car je me suis un peu sentie méprisée. ca n'est pas pour ca que je ne souhaite pas continuer de dialoguer, bien au contraire. et je sais que parfois l'écrit sur internet et les forums peuvent jouer des tours.

donc finalement pour résumer c'est un peu ce que j'avais pressenti, on ne peut pas faire grand chose pour empêcher les bots de tourner et de venir polluer les stats.

Pour toi l'utilisation du htacess est elle mauvaise uniquement pour l'environnement en général ou bien y a t il en plus des conséquences pour le trafic propre du site (de fait même si ca n'est pas le cas ca vaut quand même le coup de réduire ses émissions de CO2) mais c'est pour savoir.

Mais du coup si on utilise la méthode de filtrage dans GG, alors faut il créer un filtre par domaine ou bien peut on en créer un qui en recense plusieurs. car qqpart c'est un peu ca mon prpblème, éviter de passer 3 plombes à ajouter un nouveau referrer toutes les semaines.
 
WRInaute accro
cockpitinferno a dit:
parfois l'écrit sur internet et les forums peuvent jouer des tours.
Oui pas de tracas, je sais que je ne suis pas toujours diplomate aussi et une phrase lue de bonne humeur n'a pas forcement le même sens que le jour ou tu t'est levé du pied gauche.
cockpitinferno a dit:
on ne peut pas faire grand chose pour empêcher les bots de tourner et de venir polluer les stats.
Perso j'ai pris le parti de virer les stats externes (j'ai essayé google et j'ai viré, j'ai laissé Quantcast un moment mais j'ai viré aussi), pour justement prendre en compte tout afin d'avoir une vision réelle du trafic. C'est un système perso que je peux paramétrer pour mes besoins, donc même si les sites sont spammés je peut les faire entrer dans la case "spam" en un clic ce qui de fait me laisse clairement voir ce que je souhaite voir.
Pour te donner un apperçu des bots je te donne deux chiffres :
Stat adsense sur un site (publicité donc javascript) > 6 000 pages vues.
Stat serveur correspondante le même jours > 60 000 pages demandées. :wink:
La différence c'est google bot et bing en très grosse partie les margoulins genre ahrefs aussi plus d'autres bots de recherche à la con, le spam de referer n'est pas le gros de la cavalerie. Si je pouvais indiquer aux bots de search quelle page crawler là je gagnerais vraiment niveau carbone. C'est aussi pour cela que j'ignore les blocages du spam referer c'est une petite partie de mon souci ...
cockpitinferno a dit:
Pour toi l'utilisation du htacess est elle mauvaise uniquement pour l'environnement en général ou bien y a t il en plus des conséquences pour le trafic propre du site
htaccess c'est à la base un "scotch pour webmaster" pas un système de gestion. ce genre de fichier de post configuration ça plombe sérieusement un serveur donc indirectement c'est nocif pour le SEO donc le trafic.
J'avais a une époque un système de ban ip dedans ou j'ajoutais les IP des guignols pollueurs et la liste devenait longue ... Bref un truc similaire a ta démarche. Deux ans plus tard le serveurs ramait ... après avoir viré ces règles le trafic est remonté et les positions aussi ... j'avais gagné un temps précieux dans la fabrication des pages.

Le principe de travailler avec du plus gros (serveur) pour palier a ce souci ne me semble pas bon donc je fais avec les spammeurs et je met en oeuvre ce que je peux pour les curieux (search). Les ahrefs & co genre outils SEO ça dépends de mon humeur mais comme ils pompent beaucoup parfois je me fend d'un ban IP quand vraiment ça me gonfle.
Entorse pour le ban des spam referer je vire tous les ".ru" (donc une seule ligne ce qui ne plombe pas trop )car eux c'est des champions comparé a "boutons machin".
cockpitinferno a dit:
alors faut il créer un filtre par domaine ou bien peut on en créer un qui en recense plusieurs.
Là je ne peux rien dire j'utilise plu. Si tu opte pour cette option il est préférable de poser la question a des pro du sujet mais j'imagine qu'au fil du temps la liste va être longue et que ça te demandera aussi des ajouts réguliers.
 
WRInaute discret
bon ben merci pour ta réponse, c'est vrai que pour le moment ca ne m'avance pas. dans un 1er temps je vais laisser mon htaccess et dès que j'ai 5 min j'essai d'approfondir.
c'est pu des batons qu'on nous mets dans les roues, c'est des poutres...
bon je vais essayer de débaucher, la journée a été longue et chargée.
 
WRInaute occasionnel
Aujourd'hui j'ai un nouveau truc en provenance d'une page firefox... /en-US/firefox/addon/ilovevitaly/

Serait-ce un robot qui laisse cette trace pour générer du trafic vers ce gadget ?

C'est lourd.
 
Nouveau WRInaute
il semble que ce soit le plugin "content BT social share" le responsable
>> pourquoi ne pas tenter de le désactiver pour voir s'il cesse de nuire ?

perso je tente,
mais il y a fort à parier que les autres spams referers agissent via d'autres plugins... à découvrir ! (mais une chose après l'autre)

je vous tiens au jus des résultats
++
 
Nouveau WRInaute
ça semble fonctionner,

sachant que les visites se faisaient essentiellement le soir, et que je n'ai désactivé le plugin hier que vers 20h, j'ai auj :
5 visites contre 16 hier et 31 avant-hier

idem pour le referer "pornhub-forum.uni.me"
1 visites contre 15 hier et 25 avant-hier

idem pour best-seo-offer.com
0 visites contre 0 hier et 5 avant-hier

je ferai un petit bilan encore ce weekend,
le compte analytics n'est créé que depuis peu...
 
WRInaute discret
zeb a dit:
Ok je parlais de ce sujet sur le spam referer / htaccess

J'en disais que la technique est bonne mais qu'il ne faut pas en abuser car une liste trop longue de mots (contenus dans les noms de domaines spammeur) peut entraîner une forte perturbation du serveur.
En effet le fichier htaccess situé a la racine du site est interprété pour chaque ressource, entendu qu'une page web est une ressource composées de ressources (images, feuilles de style etc.).
Bref les règles exposées dans ce sujet sont certes efficaces et pratiques mais elles demandent individuellement pas mal de calculs a apache et c'est multiplié par chaque requêtes. En résumé tu peux vite épuiser le serveur avec ça.

Ce qui me conduit a la conclusion de pas trop se tracasser avec ce trafic parasite.

Salut zeb

Petite inclusion dans le topic :à partir de combien de ré directions permanentes 301 on estime que le ht accessoires est trop gros ? Mon ndd a eu plusieurs versions de sites (un spip; un cms proprio tout crado niveau url et enfin les deux prestashop qui eux ont été bien géré) du coup je dois avoir une centaine de lignes de redirection 301.
 
WRInaute accro
Newbipastaper a dit:
une centaine de lignes de redirection 301.
C'est déjà beaucoup, mais c'est pas tant en ligne ni en type (redirection, réécriture, ...) qu'il faut compter c'est surtout en règle appliqué (expressions régulières réalisées par le serveur)

Htaccess doit rester pour un usage très exceptionnel pas comme un système "normal".
 
WRInaute accro
Oui on peut le voir comme ça a l'extrême. Le truc avec les 301 c'est que c'est pas top car ça dois rester occasionnel, il faut donc limiter au max quitte a rediriger un groupe complet vers un unique script php qui réalise la suite (une règle htaccess et le script utilise header() )
Idem pour les ban Ip si tu en as trop ça fini par plomber les perfs d'où a remarque sur le fait de chasser les spam referer avec ça qui est tout sauf une super idée.

Par exemple si tu ajoute une ligne de test dans un script php, à la place d'une ligne htaccess qui sera exécutée pour les X ressources de la même page tu est forcement gagnant.
 
Olivier Duffez (admin)
Membre du personnel
désolé de remonter (encore) une vieille discussion sur le sujet, mais étant donné que je viens de publier un article qui donne toutes les solutions, je pense que ça peut servir...
une partie seulement du spam Analytics correspond à du spam referrer. Lisez les détails ici : filtres contre simple share button dans Analytics
 
Discussions similaires
Haut