Durée moyenne de session énorme (+ de 15h) dans Google Analytics

Nouveau WRInaute
Bonjour, c'est un grand mystère !

Je vous décris l'étrange situation de notre site et n'hésitez pas à lancer vos idées, je suis preneur ! :)

Sur Analytics, mon site enregistre des temps de sessions moyens de 15,16,18 HEURES depuis différents fournisseurs de services du type : aubervilliers bloc 2, poitiers bloc 1...

Comme dit Obelix... Voyez plutôt... :

upload_2018-12-12_15-6-24.png
 
WRInaute occasionnel
Pourtant la réponse est simple (une des réponses).

Quelqu'un se connecte à ton site, puis, pour un raison ou une autre ,il va consulter autre chose en ouvrant une autre fenêtre.
Et il oublie la première parce qu'il est occupé à autre chose.

Si sur les ordinateurs, les onglets des fenêtres sont bien visibles, peut-être sur smartphones ou tablettes, la visibilité est moindre ou nulle, et dans ce cas, ce n'est qu'en fermant les autres que l'internaute s'aperçoit qu'il est encore connecté au premier site.
 
Olivier Duffez (admin)
Membre du personnel
à part la ligne (not set), toutes les autres semblent être du spam ou des crawlers, ne penses-tu pas ?
127 pages / session, ça commence à faire
 
WRInaute passionné
Pourtant la réponse est simple (une des réponses).

Quelqu'un se connecte à ton site, puis, pour un raison ou une autre ,il va consulter autre chose en ouvrant une autre fenêtre.

Pendant 15 ou 18 heures il y aurait plein de gens qui ne fermeraient pas le navigateur avec des onglets sur le site ?
Si ça se reproduit régulièrement, c'est des robots qui font des trucs, je ne sais pas quoi...
Peut-être un concurrent qui aspire le site tous les jours... dans l'immobilier c'est courant, j'ai même fréquenté une boîte qui le faisait pour leboncoin, airbnb et un autre site tous les jours, aspirant les annonces dans sa base pour constituer une base de données pour évaluer les prix du marchés en fonction des caractéristiques, secteurs, pour des sociétés qui évaluent les prix pour les ventes...
Ces sites "stoppent" les sessions d'ailleurs après un certain nombre de pages crawlées dans un certain laps de temps pour mener un peu la vie dure à ces aspirateurs.
 
Dernière édition:
Nouveau WRInaute
Merci pour vos réponses
Quelqu'un se connecte à ton site, puis, pour un raison ou une autre ,il va consulter autre chose en ouvrant une autre fenêtre.
Et il oublie la première parce qu'il est occupé à autre chose.

--> C'est une hypothèse, mais cette raison me semble bizarre, je pense plus à un crawl comme en parle
à part la ligne (not set), toutes les autres semblent être du spam ou des crawlers, ne penses-tu pas ?
127 pages / session, ça commence à faire

--> Ouai ça peut-être ça, j'ai d'autres éléments aujourd'hui :
La photo ci dessous montre qu'ils accèdent par ordinateur.
trafic-selon-medias.PNG
Celle ci montre qu'Ils ne viennent pas par résultats naturels ; ni de liens commerciaux mais par un accès direct.
acces-direct.PNG
De plus, poitiers a un taux de rebond de 0 mais les autres ont un taux de rebond qui paraît plus naturel.

Et les infos sur l'ip m'indiquant que c'est chez france telecom.

ip.PNG
 
Nouveau WRInaute
Pendant 15 ou 18 heures il y aurait plein de gens qui ne fermeraient pas le navigateur avec des onglets sur le site ?
Si ça se reproduit régulièrement, c'est des robots qui font des trucs, je ne sais pas quoi...
Peut-être un concurrent qui aspire le site tous les jours... dans l'immobilier c'est courant, j'ai même fréquenté une boîte qui le faisait pour leboncoin, airbnb et un autre site tous les jours, aspirant les annonces dans sa base pour constituer une base de données pour évaluer les prix du marchés en fonction des caractéristiques, secteurs, pour des sociétés qui évaluent les prix pour les ventes...
Ces sites "stoppent" les sessions d'ailleurs après un certain nombre de pages crawlées dans un certain laps de temps pour mener un peu la vie dure à ces aspirateurs.

Super idée merci beaucoup pour l'info !
 
WRInaute occasionnel
ca peut être aussi des formes de ddos, il y a tout pleins de trucs à tous les niveaux pour embourber des sites.
Et un serveur web, si on ne l'embrouille pas (ou on le programme pas spécialement), il ne garde pas les sessions indéfiniment (déjà suffisamment par défaut, de quoi l'embourber) ; je ne sais plus mais quelques choses comme 2 minutes. Tout puissant qu'il soit, il est limité en mémoire et ne va créer des "workers" à l'infini. Toute personne qui fait du webtruc sait qu'on peut programmer la durée max des sesionns et que l'erreur générale qui court à la perte d'un serveur c'est de mettre des valeurs de sessions trop longues.

D'ou le problème quand on fait des formulaires à 15 pages comme dans les sites de billet d'avions, les burnes (trop lentes à sairir leur données) perdent leur session, on est obligé de faire des formulaires sur des sites spéciaux, sinon c'est trop dangereux pour la vie du site (et pas la peine de me dire qu'il y a les cookies, ce n'est pas la même chose)

Donc oui, il y a les cookies qui permettent de garder un lien entre deux pages...

Bref, jamais, jamais, une session ne dure 15 heures, mais ce n'est pas le sujet.

Jamais non plus un humain, même s'il laisse son poste allumé, va dormir et revient en ayant gardé le site ouvert, n'aura une connexion de 15 heures. Les robots classiques non plus, même yandex peut emmerder pendant 1 heure, mais guère plus.
Après, il y a des tools automatiques comme pingdom qui sont la pour tester que ton site est bien "live"
(je mets du franglais, ca fait mieux) et aussi tout une kirielle d'outils dans ce genre.

(D'ailleurs, pour ceux qui n'ont pas les moyens de faire du DDOS pour emmerder son voisin, en cumulant toutes les outils gratuits qui ont des sondes pour tester si un site est en vie, cca peut faire déjà de quoi embêter son prochain)

La solution : comme toujours, le log (pas le machin de google), les logs du serveur
C'est super simple de repérer des ip qui embêtent. On met le log dans excell ou autre, on trie par ip .. et on voit bien qui fait quoi (si comme moi vous avez dans les mains des logs de sites qui par jour dépassent la taille de ce que peut lire un fichier sous windows, alors i lfaudra programmer un peu), sinon
révélation ultime :
99.9 pourcent des robots bienveillants ou pas, se repèrent facilement parce qu'ils ne remplissent pas le champ referer quand ils vont de pages en pages dans site.
Revelation ultime numéro 2 : les robots suivent des liens dans le code. Donc si on met un lien dans le code, vers une page que les humains n'iront jamais car ils ne voient pas le lien. C'est super simple même si tu as des trafic astronomique à étudier, de repérer les robots, ils vont dans la page trappe.
Revelation ultime numéro 3 : google, bing et tout service bien fait publient leur ip qui viendront te visiter. Donc si dans la page trappe ce n'est pas leur ip, on les passes en blacklist (à la volée, mais ca c'est un peu tricky à expliquer à des SEO s'ils ont jamis touché les serveurs webs)

On résume : regarder les logs et voir qui fait quoi. Tout trafic (même anodin) non souhaité doit partir
est de la ressource perdue pour les clients, donc on le shoote
 
Nouveau WRInaute
@rollback
Merci Chef ! Je vais mettre en place les choses que tu m'as conseillé et reviendrai donner le résultat sur le forum en expliquant ce que j'ai fais et si ça a marché. Merci beaucoup pour ton investissement ;)

Bon business à vous tous ! :)
 
Discussions similaires
Haut