Un logiciel pour remplacer Google Analytics ?

WRInaute occasionnel
Bonjour,
Connaissez-vous un logiciel qui accomplirait les fonctions principales de Google Analytics ?
Pas forcément quelque chose de gratuit.

Personnellement, je suis prêt à acheter un tel logiciel.
Je suis sûr que beaucoup d'informaticiens (dont le génial Madrileno) seraient capables d'en concevoir un, mais je ne vois nulle part de mention à ce sujet.

En effet, ce qui ne me convient pas avec G A et d'autres systèmes similaires.
1- D'abord, on n'est pas totalement propriétaire de ses données, tout au plus est-on co-propriétaire.
2- Les données sont conservées dans un lieu qu'on ne connaît pas.
3- Il y a cession des données personnelles des visiteurs contre un service d'analyse.

C'est pourquoi, je n'ai jamais voulu installer GA ni de compteurs de visites gratuits.

Mais s'il existe une alternative que j'achèterai (pas un abonnement, car dans ce cas, les données sont sur Internet, et donc pas chez moi, ce qui signifie ne pas être totalement propriétaire des données), alors cela m'intéresse vivement.

Ce que je trouve le plus important :
Le nombre de visites réelles (différents de celles des robots), les pages visitées et le nombre de visites par pages. le temps de visite, la page d'arrivée et celle de départ, les liens figurant sur mon site et sur lesquels on a cliqué, les referers (les liens par lesquels le visiteur est venu).
Ceci déclinable par heure, par jour, semaine, mois, etc.

Auriez-vous une petite idée sur la question ?
Merci.
 
WRInaute accro
Les robots avant c'était facile de ne pas les prendre en compte car ils ne parsaient pas le JS. Mais maintenant avec les headless browser (Chrome, Puppeteer, ...), ça devient de plus en plus difficile.
 
WRInaute occasionnel
@UsagiYojimbo Merci pour le lien, je viens de m'y connecter, il a l'air intéressant.

@spout Merci pour l'information. La technologie des robots se complique, on dirait. En tous les cas, c'est tout un art de les mettre au point autant que de les détecter.
 
WRInaute occasionnel
Oui Spout, cela dit un firewall application comme Sucuri (que j'utilise) règle ce souci (me semble t-il)

Les robots avant c'était facile de ne pas les prendre en compte car ils ne parsaient pas le JS. Mais maintenant avec les headless browser (Chrome, Puppeteer, ...), ça devient de plus en plus difficile.
 
WRInaute accro
@DM13 : oui parce que c'est un Chrome/Webkit classique qui parse le JS, et au lieu d'avoir une interface graphique, c'est contrôlable via du JS.
 
WRInaute discret
Matomo est super. En plus compatible avec le RGPD et en respectant les données des utilisateurs. J'ai migré il y a un mois et c'est puissant.
 
Discussions similaires
Haut