Provenance du trafic et cookies

Nouveau WRInaute
Bonjour à tous !

Petite question technique.
La loi impose d'obtenir le consentement des visiteurs vis-à-vis du dépôt de cookies.

J'aimerais avoir le retour des personnes utilisant Google Analytics : parvenez-vous toujours à connaître la provenance de vos visiteurs ? Comment faire étant donné que le cookie Analytics ne peut pas être déposé avant le consentement du visiteur, et ne permet donc pas son traçage ?

Merci par avance ;)
 
WRInaute accro
Flo25 a dit:
La loi impose d'obtenir le consentement des visiteurs vis-à-vis du dépôt de cookies.
Comment faire étant donné que le cookie Analytics ne peut pas être déposé avant le consentement du visiteur, et ne permet donc pas son traçage ?
Utiliser des stats serveur ou autre chose qu'analytics. Avoir recours a un fournisseur extérieur pour ses stats c'est pas idéal et accessoirement très irrespectueux envers tes visiteurs.
 
Nouveau WRInaute
Pour le coup les visiteurs ont la possibilité d'être clairement informés de l'utilisation de cookies.

Mais ma question s'adressait plutôt aux utilisateurs d'Analytics, dans le but de savoir s'ils avaient trouvé une façon de faire.

Merci ! ;)
 
WRInaute accro
Flo25 a dit:
Mais ma question s'adressait plutôt aux utilisateurs d'Analytics...
Oui peut être mais ça ne change rien ou alors j'ai peut être mal compris ta question. Si le visiteur refuse le coockie (donc de facto l'usage d'analytics) a priori (à vérifier) tu ne devrais pas avoir accès à sa provenance (referer de la première page visité sur le site).
Auquel cas tu n'as qu'une seule solution c'est celle que je t'ai indiqué (stat serveur ou autre service).
 
Nouveau WRInaute
Exactement, tant qu'il n'a pas accepté Analytics, je n'ai pas à connaître sa provenance (ni le fait qu'il ai visité mon site, fatalement).

J'aurais sans doute dû être plus précis dans ma demande.
Techniquement, je me demandais s'il était possible, par exemple, de "stocker" la provenance du visiteur, et de ne prendre en compte ces infos que s'il accepte les cookies Analytics. S'il les refuse, on détruit les données.

Mais en écrivant je me rend compte que ça revient tout de même à tracer le visiteur avant qu'il accepte les cookies.
 
WRInaute accro
Si je comprend encore bien a une échelle plus large c'est l'application des directives CNIL qui te met dans la mouise ...

Je te conseil de regarder du côté de Piwik, c'est une alternative moins complète peut être mais stable et viable a GG analytics. Elle s'installe sur ton serveur donc reste "privée" au niveau des données elle est de plus plébiscitée par la CNIL de mémoire.

CNIL a dit:
Sont exemptés du recueil du consentement les traceurs strictement nécessaires à la fourniture d'un service expressément demandé par l'utilisateur. Ainsi, par exemple, les traceurs suivants ne requièrent pas de consentement :

les cookies de " panier d'achat " pour un site marchand ;
les cookies " identifiants de session ", pour la durée d'une session, ou les cookies persistants limités à quelques heures dans certains cas ;
les cookies d'authentification ;
les cookies de session créés par un lecteur multimédia ;
les cookies de session d'équilibrage de charge (" load balancing ") ;
certaines solutions d'analyse de mesure d'audience (analytics) ;
les cookies persistants de personnalisation de l'interface utilisateur.
voir la totale : http://www.cnil.fr/vos-obligations/sites-web-cookies-et-autres-traceurs/

C'est en ce sens que je parle de stat serveur car là tu n'a rien a demander vu que les cookies posés n'entrent pas dans le cadre CNIL (session). Toutes les informations statistiques couvrant la visite d'un internaute et peuvent donc s'inscrire dans une logique de session et être collectées par le serveur de ton site ;-) (c'est ainsi que je procède perso)

Sinon pour ta "réserve technique" oui je pense que sans être hors la loi tu peux mémoriser la provenance du visiteur (qui la laisse voir) mais ce que la cnil réprouve c'est de le faire avec un prestataire tiers + cookies. Donc en interne oui pour ton usage statistique aucun souci, mais via google non.
 
Nouveau WRInaute
Je vous remercie pour vos réponses.
Je suis allé voir à quoi ressemblait les stats côté serveur, ça m'a l'air pas trop mal. Je ne savais pas qu'il était possible d'y accéder de cette façon.

J'avais également étudié la possibilité Piwik, mais la maintenance à faire ainsi que les conseils selon lesquels il est préférable d'installer Piwik sur un autre serveur ont été rédhibitoires pour le projet en cours. La maintenance du site en général (aussi bien gestion de contenu qu'accès aux statistiques) devant se faire de la façon la plus simple possible.

En revanche je pense que dans un futur proche je testerai Piwik pour des projets plus personnels.
 
Nouveau WRInaute
+1 pour piwik.
Comme le dit zeb, il est recommandé par la CNIL. Si tu suis leur recommandation d'installation (en anonymisant les données dès leur enregistrement), tu peux légalement te passer du consentement de l'internaute. Piwik peut donc prendre ses mesures dès la première page vue, y compris tracer les sites de provenance, déposer un cookie pour identifier les nouveaux visiteurs...

du côté des stats serveurs, tu vas rencontrer une difficulté : identifier les robots ! Car à chaque fois que google et autre passent sur ton site, leur visite y est tracé (et le user-agent n'est pas toujours explicite).
 
WRInaute accro
Flo25 a dit:
Je ne savais pas qu'il était possible d'y accéder de cette façon
Tu as deux types de données qui concernent la totalité des stats webs actuellement :
* celles que le serveur du site manipule et liées a l'interaction entre le site et l'utilisateur distant. Ce sont les plus génériques.
* celles que le navigateur du visiteur est en mesure d'apprécier par lui même (la taille de l'écran ou le type de système d'exploitation par exemple)

Les systèmes de stats associent les deux pour tout savoir d'un internaute qui est en interaction avec le site. Tu peux très bien avoir une partie de ton code sur le serveur qui est affecté a cette tache. C'est assez rare sur les CMS car ça sous entend du travail et des ressources mais c'est très possible.
Il est important de faire le bilan de ce dont on a réellement besoin car au final les solutions toutes faites (tiers comme google ou interne comme piwik) sont très touffues et souvent on n'en utilise même pas 10%. Pour mes cas perso j'ai implanté un systéme minimaliste qui ne requiert aucun accord du visiteur. On peut toujours envisager d'implanter une solution externe plus contraignante dans les période ou le besoin se fait sentir (pénalité, révision de la politique SEO, ...) Dans tous les autres cas (souvent 90% du temps) c'est totalement déplacé d'obliger un internaute a se faire scruter par google ;-) (c'est pour cela que je parlais d'irrespect)
 
Nouveau WRInaute
Après concertation, il apparaît que pour le projet en cours, des statistiques poussées ne sont pas nécessaires.
Il nous faut l'essentiel : nombre de visites par jour, sur une période, provenance, appareils utilisés. Il semble que les stats accessibles avec les logs serveur répondent à ce "cahier des charges" et on partirait donc sur cette solution.

En revanche les interfaces de AWStats et Urchin ne sont pas des plus claires. Je vois qu'il est possible d'exporter les logs, donc j'imagine qu'on peut les analyser avec un soft qui pourrait éventuellement proposer une interface plus claire (je pense toujours à l'utilisateur final - le propriétaire du site) ?

Les différences entre AWStats et Urchin sont en outre abyssales sur les statistiques ; le premier me compte 0 visites pour le Jeudi 28, le second m'en compte 48 pour 742 pages vues. Le site n'est pas encore en ligne et n'est pas encore indexé. Comment interpréter ces statistiques ?
 
WRInaute accro
Je ne connais pas en détail leur fonctionnement mais il parait possible que des visites massives depuis une même machine (cas d'un site en dev) soit considérée comme celle d'un robot donc exclus du trafic "normal".
Pour que tu le sache un système classique genre analytics peut te dire que 10 000 pages on été vues alors que le serveur te dira que 60 000 ont été servies. La différence tiens a l'analyse des pages des visites certaines étant considérées comme "factices" (robots indexeurs par exemple)
De même l'espacement entre chaque page visité peut notoirement faire varier le nombre de sessions. Une session étant typiquement une ensemble de pages consultés sur une période de temps assez courte (un visiteur avec une ip et un navigateur donné passant le matin et revenant le soir produit deux sessions de visite même si au final c'est un visiteur unique)
 
Discussions similaires
Haut