[analyse] Taux de rebond, CTR, durée de visite, pogosticking

WebRankInfo

Olivier Duffez (admin)
Membre du personnel
Depuis que j'étudie ce qui se passe sur Google depuis Panda, j'ai l'impression que Google a renforcé les critères liés au comportement de l'internaute. Je vous partage donc mon analyse de 4 de ces critères supposés : Taux de rebond, CTR, durée de visite, pogosticking.

Je compte sur vous pour enrichir cette analyse avec vos bonnes idées et retours d'expérience.
 

kmenslow

WRInaute passionné
Il est vraiment bien ton article !!

Il a répondu a pas mal de questions que je me posais sur mes stats GG analytics.
- par exemple le temps de visite à 0 s :
J'ai le cas actuellement sur l'un de mes sites. Cette page donne la date d'un évènement qui est affichée en Gras et en haut de page. La page reçoit environs 30 visiteurs par jour. Le temps de visite est à 0:00:00 et le taux de rebond à 100%.
 

alain78france

WRInaute occasionnel
Bonjour,
Un excellent article de mise au point.
Mon sentiment personnel est l'importance
de ce 'pogosticking' car pour Google c'est probablement le plus facile à ' exploiter'
et surement un des plus significatifs.
Alain
 

vincentdezone

WRInaute impliqué
Super analyse qui corrobore la plupart de nos pensées : il faut travailler encore et encore le contenu et sa présentation pour ne pas décevoir l'internaute et par conséquent Google... Vivement Panda en France qu'on puisse vérifier le nettoyage annoncé.
 

nza2k

WRInaute impliqué
Synthèse très intéressante, merci.

Sur la durée moyenne, Google analytics me donne des chiffres bizarres : une durée moyenne élevée sur une page dont le taux de rebond est également élevé. Cela signifie-t-il que GA exclut les visites à une page dans ses calculs de temps passé ? Cela serait alors contradictoire avec cette phrase, ou alors je l'ai mal interprétée :

la durée moyenne de visite des internautes sur votre site, telle que calculée par Google Analytics, est fausse. En réalité elle est toujours supérieure au chiffre indiqué

=> Certaines discussions de mon forum ont un taux de rebond de 80%, mais un temps passé de 4 minutes. Selon l'interprétation que je fais (correctement ?) de la citation ci-dessus, 4 minutes serait une moyenne de visiteurs à une page, 80%, restés 0 minute, et des autres visiteurs, 20%, restés 20 minutes ? Cela me paraît improbable.
Le calcul de ces 20 minutes :
80% x 0 minutes + 20% x T minutes = 4 minutes
0.2 x T = 4
T = 4 /0.2
T = 20 minutes

Je me demande si GA ne se contente pas de prendre le temps passé des visites à plus d'une page comme temps passé moyen GLOBAL, dès lors qu'il y en a suffisamment pour que cela soit "significatif" à défaut d'être "représentatif". Mon hypothèse concerne aussi bien les stats d'un site, d'une rubrique, que d'une page individuelle.

Bref, pour revenir au coeur du sujet, je dirai que le CTR et le pogosticking représentent sans doute les deux critères les plus importants, parmi les 4 de l'article, dans l'analyse comportementale : ils sont moins manipulables techniquement et beaucoup plus transversaux puisqu'ils se basent en grande partie, voire exclusivement, sur les comportements des utilisateurs sur les SERPS.
 

gavagedeouf

Nouveau WRInaute
J'y connais pas grand chose mais je trouve pas que ce soit une très bonne idée de se fier à ces paramètres.

Un CTR élevé par exemple, ne doit pas être forcément un signe de pertinence du site mais juste une balise title bien rédigée et accrocheuse... Derrière le taux de rebond doit être analysé. Il ce peux que l'article soit bidon et que l'internaute parte rapidement.

Dans le cas inverse, quelqu'un qui aurait une vraie valeur ajoutée sur son site mais qui n'aurait pas un titre très accrocheur serait pénalisé. Dommage...

En écrivant ce post je viens de songer à un scénario où des logiciels permettraient de déclasser des sites en simulant un comportement d'internautes mécontents. A contrario, faire remonter le positionnement en simulant des visites nombreuses et longues. Je sais pas si c'est possible... ^^ (je viens de relire l'article d'olivier, il l'évoque déjà...) Mais du coup j'suis d'accord avec ça!
 

Bigbangbel

WRInaute discret
Comme Olivier le dit dans son article, très bon article d'ailleurs, ces critères ne peuvent sans doute pas être pris tels quels.
Je crois qu'il est bon de rappeler que ce sont des hypothèses.

Et à moins de me tromper, je peux aussi faire l'hypothèse opposée.

Par example, des "short clicks" (quand on revient rapidement dans les SERP) peuvent se produire :
- Un utilisateur ouvre plusieurs onglets en même temps, p.ex. les 10 premiers, pour une étude SEO ou académique ou que sais-je...

- Quelqu'un cherche un site en particulier et saute d'un résultat à l'autre jusqu'au moment où il trouve celui qu'il veut. Ce n'est pas parce que les sites sont mal ficelés qu'il les quitte, mais pcq ce ne sont pas les bons.

- La manipulation de ces taux, vitesses etc. est trop simple à faire. Il suffirait aux concurrents de faire des recherches et cliquer certains résultats plutôt que d'autres, de façon automatique, pour générer un signal assez fort.

Des "long clicks" peuvent se produire p.ex. car :

- Un utilisateur n'a aucune idée de ce qu'il recherche et prend un temps fou à visiter chaque site, et en fin de compte ne trouve rien de précis. Et ce n'est pas à cause de la qualité des sites.

- L'utilisateur quitte son poste de travail, ou son attention est détournée pour n'importe quelle raison.

- Un abus est aussi possible...

- L'utilisateur ne s'en sort qu'avec difficulté car il ne connait pas bien internet (ça existe), a du mal à lire, qui sait (?) et simplement prend du temps à faire ce que d'autres feraient rapidement.

En décembre 2008, ça fait longtemps et donc les choses peuvent avoir changé, Matt Cutts avait déclaré dans un interview "bounce rates would be not only spammable but noisy", "bounce rate is not used even a little ".

Mon avis est qu'on peut se perdre en conjecture sur l'interprétation du CTR (taux de clic) et du bounce rate (taux de rebond) dans les résultats, et là où je rejoins Olivier, c'est que ce sont peut-être des signaux qui en confirment d'autres (observez le conditionnel).
Et si quelqu'un a des preuves, des tests pour alimenter la discussion, allez-y ! Je suis prêt à ouvrir les yeux ;-)
 

Discussions similaires

Haut