Manipuler son taux de rebond

WRInaute discret
Bonjour,

J'ai des milliers de pages contenant une navigation par onglet, chaque onglet représente ce qui pourrait s'apparenter à une page. Comment pourrais-faire pour dire à google analytics que si un visiteur clique sur un onglet cela soit considérer comme le chargement d'une page et faire baisser mon taux de rebond afin qu'il soit plus représentatif ?
 
WRInaute occasionnel
Bonjour,
--- ' Manipuler son taux de rebond '

Et cela t'apporterait quoi ?

Baisser le taux de rebond uniquement pour le plaisir d'avoir un taux bas est strictement inutile
surtout si ta page d'arrivée donne à l'internaute lambda le renseignement qu'il cherchait
cela c'est bon et notre indispensable Google sait le repérer.
Ta page est alors considérée comme pertinente et progressera dans les serps, que souhaiter de mieux !
Alain
 
WRInaute discret
Ce n'est pas dans l'idée de tricher ;) mais je trouve que dans mon cas l'ouverture d'un onglet devrait être considérer comme l'ouverture d'une page. c'est tout! :eek:) Merci thiery c'est exactement ce dont j'avais besoin.
 
WRInaute discret
Salut Tomybe,

Une méthode consiste à ajouter un onclick="_gaq.push(['_trackPageview']);" sur les liens des différents onglets.

Exemple :
<a href="http://www.monsite.com/onglet1" onclick="_gaq.push(['_trackPageview', '/home/onglet1']);">

La fonction _trackPageview permet de générer une visite sur une page (qui existe ou pas) > Source

Tu pourras faire baisser ton taux de rebond et générer dans le rapport standart Contenu/Contenu du site/Pages les visites de onglets
 
WRInaute discret
Le souci avec cette solution c'est que j'ai remarqué que GoogleBot s'amusé ensuite à crawler ses fameuses pages bien qu'elles n'existent pas.
 
WRInaute discret
moué j'ai remarqué aussi que parfois googlebot y s'en cogne de ce qu'il y a d'indiqué dans le robots.txt! lol
 
WRInaute accro
Tomybe a dit:
moué j'ai remarqué aussi que parfois googlebot y s'en cogne de ce qu'il y a d'indiqué dans le robots.txt! lol
tout à fait : je me suis ainsi retrouvé ainsi avec plusieurs milliers de pages en accès interdit dans GWT, car c'étaient des url virtuelles lors de download de fichiers ou de tracking de liens sortants
 
Discussions similaires
Haut