Google Analytics améliore votre référencement

WRInaute passionné
Dans son blog -http://www.analytics.fr, Alan (le blogger) nous parle de sa dernière doscussion "SEO" avec David Degrelle (1ere posision) lors du dernier SES.

David Degrelle a une hypothèse intéréssant sur l'utilisation d'Analytics,
et le ranking.

Il part de l'hypothèse que Google Analytics fournit officiellement a Google le tx de rebonds des sites analysés avec cet outils. Hors comme chacun le sait le tx de rebond à de l'importance sur le ranking. Partant de cette hypothèse, l'injection d'une ligne de code visant à tromper analytics et par la-même réduire le tx de rebonds calculé par GGAnal, permettrait d'optimiser ses positions.

Qu'en pensez-vous ?

Source : -http://www.analytics.fr/index.php/2008/01/20/ameliorer-son-referencement-grace-a-google-analytics-et-une-ligne-de-code/

NB: Tehnique pas vraiment SEO White HAT ;-)
 
WRInaute discret
Je doute fort que GG se serve de ses propres outils pour améliorer le référencement d'un site; cela équivaudrait à leur retirer toute valeur. C'est comme si GG favorisait l'indexation de ceux qui sont inscrits sur leur programme adsense.
Il est difficile d'être juge et partie mais je crois que GG est assez intelligent pour comprendre qu'il a grandement interet à l'être si'il veut conserver son monopole.

Bref, je ne crois pas du tout à cette théorie qui se base sur une supposition qui est, à mon avis, erronée.
 
WRInaute accro
Alcaria a dit:
Je doute fort que GG se serve de ses propres outils pour améliorer le référencement d'un site

mais de son algo oui. Analytic était payant, GG le rachète il devient gratuit ... Rien n'est gratuit sur Internet!
 
WRInaute passionné
Alcaria a dit:
Je doute fort que GG se serve de ses propres outils pour améliorer le référencement d'un site; cela équivaudrait à leur retirer toute valeur. C'est comme si GG favorisait l'indexation de ceux qui sont inscrits sur leur programme adsense.
Il est difficile d'être juge et partie mais je crois que GG est assez intelligent pour comprendre qu'il a grandement interet à l'être si'il veut conserver son monopole.

Bref, je ne crois pas du tout à cette théorie qui se base sur une supposition qui est, à mon avis, erronée.

Ben c'est le cas avec le mediabot d'adsense (on parle d'indexation biensûre pas de positionnement). Matt cutts a confirmé il y a déjà plus d'un an et demi :
http://www.searchenginejournal.com/goog ... utts/3290/
 
WRInaute impliqué
L'auteur de l'article d'origine part de ce postulat pour provoquer le lecteur

au fil de son article, l'auteur dit plutot l'inverse à savoir que puisque il est si facile de dupper GA, google ne peut pas se baser sur ces infos
et que google doit par contre se baser sur les infos remontés par les googlebar chez les internautes
 
WRInaute passionné
gripsous a dit:
Hors comme chacun le sait le tx de rebond à de l'importance sur le ranking. Partant de cette hypothèse...

... le machin tombe à l'eau. si tu as une preuve que le taux de rebond a une influence sur le référencement, partage. ça serait une grossière erreur de la part de Google que d'utiliser ce taux de rebond;

voir discussion ici sur le taux de rebond dans laquelle je pense démontrer assez proprement pourquoi le taux de rebond ne mesure rien... si ce n'est le taux de rebond.
 
WRInaute accro
Curieusement pourtant j'ai plusieurs cas où un travail sérieux d'analyse du rebond et la mise en place de techniques permettant de réduire celui-ci ont précédé une amélioration du positionnement.

De là à te certifier que c'est directement lié, il y a un pas que je ne franchirai pas, mais il y a tout de même beaucoup de théories qui tendent à laisser penser que le taux de rebond est un facteur important.

On verra quand tout le monde aura pu faire ses petits tests dans son coin 8)
 
WRInaute discret
gripsous a dit:
Dans son blog -http://www.analytics.fr, Alan (le blogger) nous parle de sa dernière doscussion "SEO" avec David Degrelle (1ere posision) lors du dernier SES.

David Degrelle a une hypothèse intéréssant sur l'utilisation d'Analytics,
et le ranking.

Il part de l'hypothèse que Google Analytics fournit officiellement a Google le tx de rebonds des sites analysés avec cet outils. Hors comme chacun le sait le tx de rebond à de l'importance sur le ranking. Partant de cette hypothèse, l'injection d'une ligne de code visant à tromper analytics et par la-même réduire le tx de rebonds calculé par GGAnal, permettrait d'optimiser ses positions.

Qu'en pensez-vous ?

Source : -http://www.analytics.fr/index.php/2008/01/20/ameliorer-son-referencement-grace-a-google-analytics-et-une-ligne-de-code/

NB: Tehnique pas vraiment SEO White HAT ;-)

J'avais déjà lu l'article de ce blog. Moi il m'a semblé que c'était ironique et que justement l'auteur démonte la thèse.

Mon ressenti est plutôt mitigé. Cette donnée est en effet complètement aléatoire. Bien sûr on pourra peut être dégager des tendances, mais quid par exemple d'un site de jeux en lignes sur lequel le temps passé est beaucoup plus important qu'un site d'actu de jeux vidéo alors que tu venais juste chercher une date de sortie? Quid de tous ceux qui comme moi laissent des sites dormir dans son navigateur avant de revenir plus tard? Et j'avais déjà pu lire un exemple très explicite: les gens qui cherchent un code postal de ville? On favorise le site d'un coiffeur sur lequel le code postal est très visible avec le nom de la ville en homepage car les internautes surfent longtemps sur ce site pour dénicher les tendances de coiffures ou on favorise le site de la mairie qui intéresse personne mais pourtant serait plus pertinent? Ou la wikipedia?

Bien sûr il y a des exceptions... Mais cette donnée veut tout et rien dire, et je pense vraiment que la corréler au calcul du positionnement serait du grand portenawak.
 
WRInaute accro
HawkEye a dit:
On verra quand tout le monde aura pu faire ses petits tests dans son coin 8)

J´ai constaé la même éventualité. Mais je ne peux pas encore en être sûr. J´ai perdu des places sur des requetes ou le taux de rebond est haut ces derniers mois...
 
WRInaute occasionnel
J'ai installé Google Analytics sur mon site depuis début novembre.
Depuis, j'ai remarqué une baisse de positionnement sur les requetes ayant un taux de rebond élevé.
Par exemple, sur un mot-clé ayant un taux de rebond de 75%, je suis passé de la position 3 à la position 11.
A l'inverse, les requetes avec de faibles taux de rebonds sont mieux positionnées depuis apparemment.

Un concurent, positionné dans les trois premiers résultats (la plupart du temps 1er) sur un mot-clé unique -et ultra-concurentiel- depuis des années voit sa position osciller entre la fin de première page et fin de deuxième. Etonné, j'ai regardé le code source et me suis aperçu de la présence d'Analytics. J'avoue ne pas savoir depuis quand Google Analitics a été installé...

Rien à voir (peut-être), mais Urchin était vendu 499$ avant, Google le rachète et le propose à 199$, pour au final le proposer gratuitement... Google étant une entreprise commerciale, il a forcémment quelquechose en tête.
 
WRInaute occasionnel
En tout cas, je viens d'ajouter 23 caractères dans le code de GA sur une de mes pages, par curiosité ;-)
 
WRInaute accro
Alors, les petits malins qui ajoutent le code censé augmenté le positionnement, je pense que vous vous mettez le doigt bien profond dans l'oeil.

Certes, Google Analytics mesure tout un tas d'infos qui par recoupement, donnent une tendance sur la qualité du site en question. Le taux de rebond est une de ces données (soit dis en passant que je suis assez d'accord avec carole heinz).

MAIS, vous oubliez de prendre en considération une autre donnée : la TOOLBAR, qui elle aussi mesure les comportements des internautes.

Vous ajouter ces 23 caractères et vous êtes grillé par Google en peu de temps :
- déjà par une courbe de modification du taux de rebond non naturelle
- ensuite, par des résultats incohérents entre les données recueillies par Analytics et celles recueillies par la toolbar.

En gros, à tous ceux qui auraient l'idée (trop facile) de faire la nique à Google par ce moyen là, attendez-vous à un retour de flamme. Sont pas si idiots que ça chez Google ;)
 
WRInaute discret
herveG a dit:
Allez, on vire tous analytics pur voir..... :)

Je l'avais installé l'année dernière et puis je l'ai viré car l'outil est nettement moins performant que xiti; je n'ai vu aucune différence en terme de referencement

Je me trompe peut etre car je n'ai pas la prétention d'être une pro dans ce domaine, loin de là mais j'ai créé le site en janvier 2003, je n'avais jamais utilisé le sitemap, ni aucun autre outil particulier. Je contruisais mon petit site tranquillou dans mon coin sans me préoccuper de quoi que ce soit; en respectant simplement les bases du referencement.
Très peu d'inscription dans des annuaires aussi.
j''ai envoyé le sitemap en voyant sur ce forum que tout le monde semblait lui accorder de l'importance, c'était fin novembre je crois, ca m'a mis une merd.... pas possible.
Je ne sais pas si c'est lié mais je me suis prise 3000 visites en moins dans la vue par jour et janvier ne s'annonce pas mieux.

Tout ça pour dire que , par moment, j'ai l'impression que plus on essaye de fignoler et de rentrer dans le jeu de GG et tous ces outils magiques et moins on obtient de resultats ....
 
WRInaute occasionnel
De plus il me parait évident que le taux de rebonds ne veut rien dire, il correspond à un site.

J'ai un site qui à un taux de rebonds assez haut et pourtant ce n'est pas parcequ'il n'interresse pas les gens c'est simplement parceque les gens arrive directement sur l'info qu'il désire et que cela répond rapidement à leur attente.
Donc un site bien pensé, facile à indexé, se verrai pénalisé parcequ'il rend trop rapidement service à ses visiteurs ?
 
WRInaute occasionnel
blman a dit:
...MAIS, vous oubliez de prendre en considération une autre donnée : la TOOLBAR, qui elle aussi mesure les comportements des internautes.

Vous ajouter ces 23 caractères et vous êtes grillé par Google en peu de temps :
- déjà par une courbe de modification du taux de rebond non naturelle
- ensuite, par des résultats incohérents entre les données recueillies par Analytics et celles recueillies par la toolbar.

En gros, à tous ceux qui auraient l'idée (trop facile) de faire la nique à Google par ce moyen là, attendez-vous à un retour de flamme. Sont pas si idiots que ça chez Google ;)

Et nous, nous ne sommes pas si stupides que ça... ;-) Il est évident que de passer de 75% de rebond à 0% sur une requête n'est pas normal et l'algo le plus simple y trouverait à redire. Donc la parade est simplement de ne pas laisser constamment ces 23 caractères. Le but est de faire baisser ce taux de rebond, pas de l'avoir à 0 bien entendu.

De plus, Google ne changera -bien entendu- pas le positionnement de suite, ce serait trop flagrant. Il attendra un peu... un, deux voire trois mois... Il créera un décalage entre les premiers changements du taux de rebond et le changement de position dans les résultats moteur.

Il ne faut pas prendre Google pour un c... certes, mais lui, il nous prend pour quoi ? :)
 
WRInaute occasionnel
maniT4c a dit:
De plus il me parait évident que le taux de rebonds ne veut rien dire, il correspond à un site.

J'ai un site qui à un taux de rebonds assez haut et pourtant ce n'est pas parcequ'il n'interresse pas les gens c'est simplement parceque les gens arrive directement sur l'info qu'il désire et que cela répond rapidement à leur attente.
Donc un site bien pensé, facile à indexé, se verrai pénalisé parcequ'il rend trop rapidement service à ses visiteurs ?

Entièrement d'accord avec toi. Reste maintenant à savoir si Google pense la même chose. Visiblement, ça n'est pas le cas, et cela est mis noir sur blanc dans l'aide en ligne d'Analytics...
 
WRInaute occasionnel
Alcaria a dit:
Je l'avais installé l'année dernière et puis je l'ai viré car l'outil est nettement moins performant que xiti; je n'ai vu aucune différence en terme de referencement

Combien de temps Analytics est resté en place ? Si c'est sur une trop courte période, on ne peut rien en tirer.
 
WRInaute accro
DM13 a dit:
Visiblement, ça n'est pas le cas, et cela est mis noir sur blanc dans l'aide en ligne d'Analytics...

Je veux bien un copier/coller du paragraphe qui dit ça dans l'aide en ligne de GG Analytics.
 
WRInaute occasionnel
DM13 a dit:
maniT4c a dit:
De plus il me parait évident que le taux de rebonds ne veut rien dire, il correspond à un site.

J'ai un site qui à un taux de rebonds assez haut et pourtant ce n'est pas parcequ'il n'interresse pas les gens c'est simplement parceque les gens arrive directement sur l'info qu'il désire et que cela répond rapidement à leur attente.
Donc un site bien pensé, facile à indexé, se verrai pénalisé parcequ'il rend trop rapidement service à ses visiteurs ?

Entièrement d'accord avec toi. Reste maintenant à savoir si Google pense la même chose. Visiblement, ça n'est pas le cas, et cela est mis noir sur blanc dans l'aide en ligne d'Analytics...

Alors c'est grave...
Mais dans ce cas pourquoi analytics ne nous propose que des "chiffres" et pas plutôt des truc du genre "votre page machin chose ne plait à personnes refaite la", "cette page est nickel mettez de l'adsens dessus sa va vous rapporter 50€ par mois" . Peut être parce que les statistiques à l'heure actuelle ne peuvent fournir que des chiffres et que seul un humain est capable d'en tirer des conclusions... Google aurait il inventer une IA plus performante que le cerveau humain ?
Dans ce cas je cours rebrancher mon vieux "terminator" pour qu'il me défende contre le "googleMinator"
 
WRInaute occasionnel
Je suis complètement pas d'accord encore une fois par un nième "gourou du référencement" qui surfe sur la vague du "secret dévoilé".

Google a deux choses pour comprendre le taux de rebond d'un site:
1° La google tool bar
inutile de vous expliquer son principe
2° le moteur de recherche GOOGLE LUI MËME !!!!
en effet quand vous allez sur un site et que ce site n'a pas donné ce que vous cherchiez.. ben vous retournez sur Google. C'est aussi con que ça y a pas besoin d'aller chercher midi à quatorze heures. Mais google connait la requête que vous avez fait, sait sur quel lien vous avez cliqué, et vous reconnait quand vous revenez ......
 
WRInaute discret
DM13 a dit:
Combien de temps Analytics est resté en place ? Si c'est sur une trop courte période, on ne peut rien en tirer.

4 ou 5 mois de mémoire

Mais bon, je vais vous poser une question claire et précise. Toutes vos petites manipulations vous permettent-elles de réellement progresser en terme d'audience ? Et je ne parle pas simplement de cette histoire avec Google analytic.
Car après tout c'est la seule vraie question à se poser. Je pars de 0 , je me fixe un objectif raisonnable sur une période donnée. L'objectif est-il atteint ?
E la, il n'y a pas 50 réponses, c'est oui ou c'est non.
 
WRInaute occasionnel
Røi,

Personne n'a dit le contraire. Personne n'a dit que Analytics était LE système permettant à Google de positionner un site.

La question est de savoir si Analytics est un des facteurs qui entre en jeu dans les paramètres de positionnement ou non.
 
WRInaute occasionnel
Alcaria a dit:
DM13 a dit:
Combien de temps Analytics est resté en place ? Si c'est sur une trop courte période, on ne peut rien en tirer.

4 ou 5 mois de mémoire

Mais bon, je vais vous poser une question claire et précise. Toutes vos petites manipulations vous permettent-elles de réellement progresser en terme d'audience ? Et je ne parle pas simplement de cette histoire avec Google analytic.
Car après tout c'est la seule vraie question à se poser. Je pars de 0 , je me fixe un objectif raisonnable sur une période donnée. L'objectif est-il atteint ?
E la, il n'y a pas 50 réponses, c'est oui ou c'est non.

Je ne pense pas que l'idée général dévelopé ici soit comment "gruger" google même si ça pourrait être tentant mais plutôt comprendre quel sont les critères que google tien le plus à coeur.
Si l'on arrive à me prouver que le taux de rebonds à une réelle influence sur le positionnement. Je n'irais pas modifier mes codes analytics mais par contre je ferait surement en sorte que mon taux de rebonds diminue, sans pour autant aller à l'encontre de mes principes (le visiteurs avant le moteur).
 
WRInaute occasionnel
blman a dit:
DM13 a dit:
Visiblement, ça n'est pas le cas, et cela est mis noir sur blanc dans l'aide en ligne d'Analytics...

Je veux bien un copier/coller du paragraphe qui dit ça dans l'aide en ligne de GG Analytics.

A interpreter comme l'on veut :

"À propos du rapport

Le taux de rebond est le pourcentage de visites d'une seule page, c'est-à-dire le pourcentage des visites lors desquelles l'internaute a quitté votre site dès la page d'entrée. Le taux de rebond constitue un indicateur de la qualité des visites. Lorsqu'il est élevé, cela signifie généralement que les pages d'entrée sur le site (pages de destination) ne correspondent pas aux attentes des visiteurs. Vous pouvez réduire les taux de rebond en adaptant correctement vos pages de destination aux mots clés et aux annonces que vous diffusez. Les pages de destination doivent contenir les informations et services proposés dans la version de l'annonce concernée."
 
WRInaute occasionnel
maniT4c a dit:
Je ne pense pas que l'idée général dévelopé ici soit comment "gruger" google même si ça pourrait être tentant mais plutôt comprendre quel sont les critères que google tien le plus à coeur.

Effectivement, notamment l'impact éventuel de GA sur le positionnement.
 
WRInaute accro
DM13 a dit:
A interpreter comme l'on veut :

"À propos du rapport

Le taux de rebond est le pourcentage de visites d'une seule page, c'est-à-dire le pourcentage des visites lors desquelles l'internaute a quitté votre site dès la page d'entrée. Le taux de rebond constitue un indicateur de la qualité des visites. Lorsqu'il est élevé, cela signifie généralement que les pages d'entrée sur le site (pages de destination) ne correspondent pas aux attentes des visiteurs. Vous pouvez réduire les taux de rebond en adaptant correctement vos pages de destination aux mots clés et aux annonces que vous diffusez. Les pages de destination doivent contenir les informations et services proposés dans la version de l'annonce concernée."

Oui, vraiment a interprété comme on veut... Rien de bien significatif ;)

En tout cas, ce qui serait vraiment interressant, comme le dit maniT4c, c'est que quelqu'un se lance dans une série de tests pour savoir si cette donnée (le taux de rebond) entre réellement en jeu. Sans plus d'infos, ce ne sont que des suppositions non fondées qui n'apporte rien au débat.
 
WRInaute passionné
Google connait le taux de rebond effectif à partir des clics sur les résultats de recherche: par exemple si on clique sur un nouveau lien après quelques secondes.
Il utilise ces données, c'est indiqué dans le "patent".

Il n'a donc pas vraiment besoin de analytics qui comptabilise aussi le rebond à partir de liens directs, lesquels peuvent donner une fausse idée de la cible et fausser donc le taux de rebond.
 
WRInaute discret
C'est dingue de voir que beaucoup considèrent cette spéculation de gourou avec sérieux 8O

Allez je fais tous les cyber cafés de la capitale et je laisse mon site ouvert sur tous les PC pendant plusieurs jours pour avoir un faible taux de rebond.

"Inch'Allah" je suis premier sur "rachat de crédit" à la fin de la semaine. :roll:
 
WRInaute accro
Manga59 a dit:
Allez je fais tous les cyber cafés de la capitale et je laisse mon site ouvert sur tous les PC pendant plusieurs jours pour avoir un faible taux de rebond.

Le taux de rebond c'est quelquechose que la moitié des webmasters moyens ne comprend pas.
Preuve en est que ça fait au moins 3x en 2 jours que je vois quelqu'un le comparer à la durée de la visite.

Il faut comprendre que tout en SEO n'est pas 100% scientifiquement prouvé. Certaines choses sont ressenties, ou pressenties.
Dans le cas de la possible utilisation du bounce rate par Google pour affiner ses résultats (je n'ai pas dit définir son classement, mais bien affiner !), ça fait au moins 4 ans que cet effet est ressenti et pressenti.

D'où pensez-vous que viennent les tentatives de manipulation "SEO push" et "SEO pull" ?
--> D'une volonté d'améliorer le CTR d'un résultat dans les SERPs, et de réduire son taux de rebond "from SERP".

Vous avez une vision hyper-réduite d'effets pour lesquels Google a des centaines de milliards de données dans son panel. Pour vous, un visiteur qui sort du site après avoir visité 1 seule page, c'est simplement parceque vous estimez qu'il a trouvé ce qu'il veut.
Certes ça vaut ce que ça vaut à la micro-échelle de votre site, de votre recherche, mais qu'en est-il au niveau du volume global, du comportement général ?

Si Google peut obtenir les infos suivantes:

CTR (SERP)
Bounce Rate (SERP)
Returning Visitors, (SERP) (= utilisateurs qui cherchent, loggués sur leur compte !)

plus:

Bounce Rate (ToolBar)
Visit Duration (ToolBar)
Returning Visitors (ToolBar)

et qu'il peut encore (éventuellement, car ce n'est pas confirmé) y ajouter:

The whole package (Analytics)


...alors je pense qu'il est en mesure de définir des modèles de sites, de comparer les sites à ces modèles, et d'apporter des corrections tant aux positionnements qu'à son algo.

Tiens... sujet d'actu: les "pages au PR grisé", ça serait pas des pages :

- fort linkées en interne
- peu linkées en externe
- peu visitées depuis le site
- à fort rebond

mmh ???
Google a ces infos: il suffit d'un nombre significatif de visites à la page par des utilisateurs ayant installé la ToolBar, et la détermination du type de page est faite. Reste à la comparer aux modèles, et on passe du vert au gris.

Simple piste de réflexion hein, j'suis pas gourou moi...



Ah et quand on aura fini de tergiverser sur l'algo des années 80 que vous semblez attribuer à Google, on va peut-être se pencher sur la question des SiteLinks aussi, et de l'éventuelle corrélation entre la présence d'une page dans les SiteLinks d'un site, et son CTR (from SERP), de même que son Bounce Rate (from SERP).

Avant de dire que c'est du gros "portnawak", faites des analyses.
 
WRInaute accro
carole heinz a dit:
gripsous a dit:
Hors comme chacun le sait le tx de rebond à de l'importance sur le ranking. Partant de cette hypothèse...
... le machin tombe à l'eau. si tu as une preuve que le taux de rebond a une influence sur le référencement, partage. ça serait une grossière erreur de la part de Google que d'utiliser ce taux de rebond;
...

tout à fait d'accord avec Carole ; le taux de rebond est un facteur
parmi tant d'autres, et il n'est pas significatif de qualité. Pourquoi google le priviligerait il.

(Avec ce genre de raisonnement : )
J'ai mis analytics sur un seul site et il ne se porte ni mieux ni moins bien, c'est donc une preuve que c'est inefficace.
;)
 
WRInaute accro
Le croisement des infos d'Analytics par Google me semble en tout cas logique (je n'aime pas trop cette idée, d'ailleurs). D'un autre côté, est-ce vraiment utile d'essayer de "se cacher", vu les recoupements possibles, par exemple Analytics et Google Toolbar.
 
WRInaute discret
maniT4c a dit:
Je ne pense pas que l'idée général dévelopé ici soit comment "gruger" google même si ça pourrait être tentant mais plutôt comprendre quel sont les critères que google tien le plus à coeur.
Si l'on arrive à me prouver que le taux de rebonds à une réelle influence sur le positionnement. Je n'irais pas modifier mes codes analytics mais par contre je ferait surement en sorte que mon taux de rebonds diminue, sans pour autant aller à l'encontre de mes principes (le visiteurs avant le moteur).

J'ai bien compris qu'il ne s'agissait pas de grugger GG. Tu soulignes justement ce qui revient au centre de 90% des topics: "comprendre quel sont les critères que google tien le plus à coeur"

Et justement, j'ai la nette impression que pas mal de monde complique tout avec plaisir, au point que certains en arrivent à passer plus de temps à essayer de comprendre et à modifier en fonction de la mode du moment, plutot qu'à faire du contenu de qualité.

Et je crois également que ca arrange bien les affaires de GG. Plus les webmasters donneront de l'importance à des outils qui n'en ont pas forcemment, et plus ils conserveront une emprise sur nous.

En 4 ans, j'ai quand meme eu le temps de tester un certain nombre de "trucs" et je n'ai pas eu le moindre miracle. Par contre, beaucoup de travail, de perseverance et de serieux finissent par donner des résultats.

En gros les seuls règles qui donnent vraiment des resultats:

Un page avec du contenu sérieux
Un titre digne de ce nom qui reprend au moins un mot clef par rapport au contenu
Quelques mots clefs dans l'intro mais sans exagérer car ca ne donne pas de meilleurs resultats de répéter 50 fois le meme mot, bien au contraire
Un site bien structuré qui peut donc etre indexé facilement et dans sa totalité

Concernant ces histoires de sitelink, je continue à avoir de gros doutes sur l'interet de s'inscrire sur des centaines d'annuaires. Personnellement, je ne l'ai pas fait.
Par contre, un bonus certain quand des sites serieux font un lien sans retour mais là je ne vois pas comment on peut les obliger à le faire.

Tout le reste, pour moi, c'est de la philosophie ou du triturage de neurones

Quant à google analytic, je le considére comme un outil peu fiable et pas du tout à la hauteur de la réputation de GG. Mais de toute évidence, beaucoup s'amusent avec en se masturbant le cerveau avec delectation . Comme on dit, chacun trouve son plaisir où il peut .
 
WRInaute accro
La question primordiale : faut-il diminuer le taux de rebond pour mieux satisfaire le visiteur ou le contraire ?
Si sur toutes mes pages le numéro de téléphone reste accessible, pour un commerce irl, le visiteur n'aura pas besoin d'aller sur la page contact, de ne pas le trouver puis sur la page à propos pour l'obtenir.
Résultats : 2 pages vues en moins, 30" de moins passés par le visiteur sur mon site. Est-ce que mon site est moins bien avec un temps de visite moindre et un taux de rebond plus fort ?
Posez vous la question :wink:
 
Nouveau WRInaute
blman a dit:
Sont pas si idiots que ça chez Google ;)
Non c'est clair :`~(


Sinon, pour le taux de rebond, j'ai remarqué ça aussi, que ce soit sur les sites de ma boite ou mes sites persos


Leonick a dit:
Si sur toutes mes pages le numéro de téléphone reste accessible, pour un commerce irl, le visiteur n'aura pas besoin d'aller sur la page contact, de ne pas le trouver puis sur la page à propos pour l'obtenir.

C'est pas faux, mais je pense qu'il ne faut pas penser de manière bipolaire ou réductrice (roh le TROLL que je suis... :oops: ).
Il y a des rêgles a toute transaction.
Si par exemple le visiteur tape le mot clef "chaussure", qu'il tombe sur un site moyen ayant analytics et qu'il fait demi-tour au bout de deux pages vues pour re-rechercher le même mot clef "chaussure" et tomber sur un autre site ayant analytics et qu'il visite 5 pages tout en ne recherchant pas d'autres mots clefs thématiquement similaire dans les 5 prochaines minutes, alors le taux de rebond élevé et récompensé par un meilleur positionnement trouve toute sa valeur ;)

:arrow: je sors
 
WRInaute accro
Peut être parce que le 1° site avait comme bandeau "le meilleur chausseur de paris" et qu'il en cherchait à Lyon. Mais qu'il appartient à la typologie des internautes qui ne savent (veulent) pas taper plus d'un mot dans la recherche.
La longue traine, ils ne connaissent pas :wink:
 
WRInaute accro
Et puis un "bon" taux de rebond c'est combien 20,25,30 % ?

ça veut dire que le site traditionnel qui à 45/55 % il est mauvais ?
bah bah bah ça ne colle pas d'autant plus que énormément de sites n'ont pas analytics.
 
WRInaute occasionnel
A mon avis Googlme analatycs permet d'améliorer le référencement de son site par ce qu'on traite les données qu'il nous donne pour améliorer son site plus que par des éléments cachés dans l'outil qui boostent le référencement.
 
WRInaute impliqué
maniT4c a dit:
De plus il me parait évident que le taux de rebonds ne veut rien dire, il correspond à un site.

J'ai un site qui à un taux de rebonds assez haut et pourtant ce n'est pas parcequ'il n'interresse pas les gens c'est simplement parceque les gens arrive directement sur l'info qu'il désire et que cela répond rapidement à leur attente.
Donc un site bien pensé, facile à indexé, se verrai pénalisé parcequ'il rend trop rapidement service à ses visiteurs ?

Très juste! :lol:
 
WRInaute accro
Thierry Bugs a dit:
Et puis un "bon" taux de rebond c'est combien 20,25,30 % ?

ça veut dire que le site traditionnel qui à 45/55 % il est mauvais ?
bah bah bah ça ne colle pas d'autant plus que énormément de sites n'ont pas analytics.

Ca dépend du modèle de site, Thierry.
Google est capable de catégoriser les sites selon leur structure, leur mode de fonctionnement, même leur mode de référencement en fait.
Techniquement il ne faut qu'un algorithme assez simple pour dire si le webmaster lambda "a beaucoup d'amis influents" ou s'il "achète du Sou*ny à la pelle".

Comparer la structure-type d'un site à une centaine de modèles (par exemple) n'est pas une gageure non plus, pour une machine quelques secondes suffisent.

De là il est assez aisé de déterminer un "Tx de Rebond idéal, ou canonique", et de comparer celui-ci au taux identifié par les liens de tracking planqués sur les résultats des SERPs, et par la ToolBar.
 
WRInaute impliqué
HawkEye a dit:
De là il est assez aisé de déterminer un "Tx de Rebond idéal, ou canonique", et de comparer celui-ci au taux identifié par les liens de tracking planqués sur les résultats des SERPs, et par la ToolBar.

Il serait bien utile que les pros du référencement s'intéressent à ce sujet:
qu'ils anticipent quel pourraient être ce taux de rebond canonique en fonction de catégories
de sites. Quelles pourraient être ces catégories?
Ainsi, on pourrait identifier si on a un bond taux de rebond.

D'ailleurs le taux de rebond doit dépendre aussi intrinsèquement des mots clés.

Il faudrait travailler comme les petits
génies (hum :lol:) travaillant sur l'algo de Google. Tu as les bonnes idées HawkEye. :)
Il serait peut-être utile que le référencement emploie des matheux ou des chercheurs pour faire quelques études sur ce que peut utiliser l'algo de positionnement de Google. Le pagerank est une amusette. Il faudrait arriver
à faire plus que des test et études statistiques. Cela m'étonne d'ailleurs que l'on ait pas commencé à le faire. quelque part.
Ce truc sur le taux de rebond me parait être quelque chose de très intéressant: l'exploitation des stats des sites pour obtenir des critères intéressants de classement des sites: un très beau sujet de thèse.
 
WRInaute accro
quand comprendrez-vous qu'il n'y a pas de BON taux de rebond.
Cela dépend de la finalité du site, de son bon référencement, etc...
Un site bien référencé et positionné dans un moteur avec un internaute qui tape une requête bien spécifique donnera un internaute très satisfait, à la fois du moteur de recherches et du site cible et pourtant un taux de rebond très fort
 
WRInaute accro
Leonick a dit:
quand comprendrez-vous qu'il n'y a pas de BON taux de rebond.

Mais ça va faire 10x que je précise qu'il peut y avoir un taux de rebond "type" pour chaque modèle de site possible, et qu'il n'y a pas des milliers de structures de sites différentes sur le web.

Bellegarde-web a compris de quoi je parle. Il y a d'autres personnes avec qui j'ai pu en discuter et qui s'accordent à dire que ces "modèles" existent et que Google les utilise.
Certains outils existant utilisent ou gravitent autour de "modèles" également: l'ignorer ne signifie pas que cela n'existe pas.

Evidemment on est bien d'accord que Google ne classe pas les sites en fonction de leur BR: il n'y aurait rien de plus crétin à faire. Déjà les classer par PageRank c'est un truc qui n'a sa place que dans l'esprit d'un débutant au cerveau monocellulaire, alors classer par rebond... franchement... c'est suicidaire.

Ce que je dis par contre, c'est que Google utilise le BR et d'autres infos statistiques (le CTR sur les SERPs par exemple) dans son algo (pourquoi pas dans la tranche TrustRank tiens ?) aux fins d'affiner ses résultats, voire de les contrôler.

Au vu du nombre de requêtes existantes (même si on n'en prend que le top du top), comment veux-tu auditer la qualité de l'outil autrement qu'en automatisant le gros du travail, et en auditant l'audit lui-même (en le confirmant/infirmant par comparaison avec un travail de validateurs humains...)?
 
WRInaute accro
HawkEye a dit:
Ce que je dis par contre, c'est que Google utilise le BR et d'autres infos statistiques (le CTR sur les SERPs par exemple) dans son algo (pourquoi pas dans la tranche TrustRank tiens ?) aux fins d'affiner ses résultats, voire de les contrôler.
Ca c'est très fortement possible, car ces 2 derniers mois, même sur des requêtes très secondaires on avait des url de tracking sur les SERP google, et bien au delà de la 1° page. Des fois, ça allait jusqu'à la 4 voire 5° page.
 
WRInaute occasionnel
D'après ce que tu dit hawk dans l'idéal pour faire un site aprecier au yeux de googler il faudrait trouver un site de même modèle que le sien et qui fonctionne bien et s'en inspirer?

Mais que faire dans ce cas des pages qui sortirait du moule pour X raison... (page bien spécifique, outils, etc..) Elle serait par conséquent mal positionnée et pénaliserait même le site en question ?
 
WRInaute accro
Je suis assez d'accord avec toi HawkEye, sauf sur les modèles de sites. Je pense plutôt qu'il y a un "taux de rebond Rank" associer à des ontologies, c'est à dire à des ensembles de mots clé.
 
WRInaute accro
En même temps, il serait intéressant de comprendre pourquoi un visiteur entre sur un site et en ressort aussitot.

Qu´est ce que le taux de rebond ? le visiteur qui entre et qui ressort en moins de 10 secondes ? ou celui qui entre et ne va pas plus loins que la première page ? Peutêtre a-t-il trouvé tout de suite l´information qu´il cherchait et n´a pas besoin d´aller voir plus loin....?
 
WRInaute occasionnel
Bah de toute facon c'est moi qui ai la solution pour faire un moteur plus efficace que google :).

Me faut juste un ou deux génies de l'electronique et je créé la souris "sensitive" qui détecte le taux de satisfaction d'un visiteurs lorsqu'il visite un site. Tous cela relié à une base de donnée et hop le tour est joué :).

Seul petit défaut les site porno risque de toujours être en pole position :p
 
WRInaute discret
Pour ma part j'aurais tendance à dire que le taux de rebond ça compte pour 0 !!!
Ce qui est important ce sont les pages de sortie, je m'explique :
- Un visiteur vient et arrive directement sur une page de téléchargement, télécharge et s'en va : le site à rempli sa fonction, la page de sortie est la bonne par rapport à son besoin.
- J'écris des articles le visiteur sort dés la home sans avoir lu un seul article : je n'ai pas répondu à son besoin.
- Je vend des godemichés (oui et alors ?) et j'ai un gros taux de sortit au moment du paiement alors c'est très grave, le site ne donne pas confiance.

Il est très important de surveiller vos visites directes (lecteur ou client fidèle) et vos page de sortie (mon site remplit il bien sa fonction !) pour moi ce sont là les indicateur clés d'un site.
 
WRInaute occasionnel
Deux cas de figure (en simplifiant) :

1. Celui qui ne va pas plus loin que la page d'entrée et y reste 2 secondes.

2. Celui qui y reste 29 minutes et 59 secondes.

Dans les deux situations, le taux de rebond sera de 100%. Cependant, le comportement du visiteur sera radicalement différent.

Les outils statistiques ne permettant pas de définir la durée de visite à une page unique, on ne peut pas connaître (nous) le taux de visiteurs "passants" qui entrent dans le cas 1 ou 2...

Si Google y arrive (??), il est donc en mesure de faire la différence entre les deux situations et donc, de faire la distinction entre le visiteur qui est interessé (sauf s'il s'est endormi, ou s'il répond au téléphone...) et celui qui ne l'est pas (sauf problème technique) même si le taux de rebond est de 100% pour l'un comme pour l'autre donc.

Si Google y arrive donc, le fait qu'il tienne compte du taux de rebonds n'est pas -au fond- genant. Ce qui me dérange, c'est l'éventualité d'intégrer une pondération significative pour un taux de rebonds si Google n'est pas en mesure de définir la durée de visite à une page (unique) Je pense que ce ne serait pas juste et... pas fiable du point de vue des critères d'interêts.
 
WRInaute accro
Une autre différence que Google peut mesurer.

Si après une recherche, l'internaute clique sur un résultat pour revenir sur le moteur pour cliquer sur un second résultat et fermer sa fenêtre.

Pour les 2 sites, le taux de rebond est le même puisque l'internaute n'a consulté qu'1 seule page.

Sauf que pour le 1er site, il n'a pas satisfait la requête de l'internaute.
 
WRInaute occasionnel
blman, tu crois qu'il est à même de mesurer la durée de visite à une page de cette manière ?...
 
WRInaute accro
blman a dit:
Une autre différence que Google peut mesurer.

Si après une recherche, l'internaute clique sur un résultat pour revenir sur le moteur pour cliquer sur un second résultat et fermer sa fenêtre.
CA j'y crois beaucoup plus : tracking intense de gg depuis 2 mois
 
WRInaute occasionnel
"Si après une recherche, l'internaute clique sur un résultat pour revenir sur le moteur pour cliquer sur un second résultat et fermer sa fenêtre."

Quel est le site le plus interressant ? Est-ce vraiment le deuxième ?! En effet, imaginons que la page d'entrée du premier site ai une durée de visite de 15 mn et que la page unique du deuxième soit vu deux secondes...
 
WRInaute accro
DM13 a dit:
blman, tu crois qu'il est à même de mesurer la durée de visite à une page de cette manière ?...

Avec la toolbar, il peut mesurer énormément de choses ;)
Ensuite, il a beaucoup d'autres outils, donc oui.

Et puis, pour une team (Google) d'un tel niveau, c'est normal qu'ils mesurent pour s'améliorer, comme le disait HawkEye.

Ici, on est toujours un train de rabacher, "fais un contenu de qualité". Mais la qualité se mesure par rapport à quoi ? Sur une requête donnée, plusieurs sites entre en "concurrence" et Google doit déterminer quel est celui qui sera de meilleur qualité sur cette requête. Heureusement, qu'il a tout un tas d'outils statistiques qui lui permette de le déterminer. Donc là, je vous renvois au premier post d'HawkEye dans ce topic...

Enfin, perso, je vois :

- la qualité du site en lui-même (ses accès directs, son taux de rebond pourquoi pas, la durée de visite, PageRank...). On peut dire ce qu'on veut, on ne connait pas les critères choisis par Google, surement tous sérieusement discutable. A Google de trouver la bonne alchimie pour que chaque critère soit un choix pertinent, mais ils s'en sortent pas si mal ;)

- la qualité de la réponse par rapport à une requête : Google mesure surement la qualité de ses réponses, surtout le comportement des internautes qui viennent d'effectuer une recherche. Google ne peut s'améliorer que si ils réussissent à "savoir" si oui ou non ils ont répondu correctement à la recherche de l'internaute, et comment ils auraient pu améliorer la qualité de la réponse. Donc là aussi, tout un tas de stats (CTR, taux de rebond, taux de retour, etc...

Surement tout un tas d'autres données à penser, mais voila, on "ressent" les choses comme disait HawkEye sans en être forcément certains. En tout cas, ça fait beaucoup de "quelquechose Rank" à imaginer.

Et finalement, tout ça, c'est plutôt une bonne nouvelle car ça va dans le sens de l'internaute et de la qualité.
 
WRInaute occasionnel
Entièrement d'accord avec ce que tu viens de dire blman.

Sauf peut-être sur la capacité de la toolbar à mesurer la durée de visite à une page. Analytics ne peut pas le faire en tout cas et XiTi non plus...
 
WRInaute accro
blman a dit:
Une autre différence que Google peut mesurer.

Si après une recherche, l'internaute clique sur un résultat pour revenir sur le moteur pour cliquer sur un second résultat et fermer sa fenêtre.

C'est ce que je me tue à dire ;)

Imaginons que pour une requête donnée, on ait deux résultats au positionnement "proche", départagés de quelques points seulement.

A est classé 1er
B est classé 2nd

A est pourtant moins intéressant (c'est subjectif ça: Google ne le sait pas lorsqu'il indexe) que B (mais probablement mieux optimisé, lié, etc...).

Sur un volume de recherches important (plusieurs milliers de requêtes, sans quoi l'échantillon n'est pas représentatif), Google place aléatoirement un lien de tracking sur l'un ou l'autre des résultats.
Il en ressort un échantillon de comportements de visiteurs sur la SERP.

En analysant les CTR des résultats de A et de B, et en récupérant une information comportementale même minime via la Toolbar, Google peut déterminer que B semble être plus "intéressant" pour le visiteur.

- En apprenant par exemple que les visiteurs qui ont cliqué sur le résultat "A" sont revenus à la SERP plus souvent et plus rapidement que ceux qui ont cliqué sur le résultat "B".
- En apprenant par exemple que sur B, les visiteurs voient 3 pages, alors que sur A une seule.
etc...

Je ne cherche pas à établir ces critères. La question de savoir s'il y a un "bounce max" ou un "bounce min" n'est pas à l'ordre du jour.
Ce que je cherche à faire valoir, c'est l'idée que Google peut faire de l'analyse comportementale au travers de ses outils, et peut l'intégrer à son algorithme à vocation de contrôle ou d'audit. Qu'il ait raison ou tord, et que son analyse soit cohérente est un autre problème.


blman a dit:
Je pense plutôt qu'il y a un "taux de rebond Rank" associer à des ontologies, c'est à dire à des ensembles de mots clé.

La détermination de valeurs-type ou de comportements-type par ontologie est aussi une piste intéressante, et j'y adhère.
Par contre, je ne lâcherai pas les modèles structurels, ni les sphères de tendance (encore un autre débat ;) ) :roll:
 
WRInaute accro
DM13 a dit:
Entièrement d'accord avec ce que tu viens de dire blman.

Sauf peut-être sur la capacité de la toolbar à mesurer la durée de visite à une page. Analytics ne peut pas le faire en tout cas et XiTi non plus...

Après, on peut imaginer ce qu'on veut, on en sait rien.

En tout cas, je ne pense pas qu'elle puisse mesurer la durée non plus, quoique...

Il y a quelques temps, j'avais utilisé un logiciel qui permettais de voir ce qu'elle envoyait à Google, et je crois bien qu'elle envoyait des données uniquement au chargement de chaque page (pas pendant la consultation, ni au déchargement d'une page, ni à la fermeture). Mais plus rien ne m'étonnerait avec eux ;)
 
WRInaute occasionnel
DM13 a dit:
Entièrement d'accord avec ce que tu viens de dire blman.

Sauf peut-être sur la capacité de la toolbar à mesurer la durée de visite à une page. Analytics ne peut pas le faire en tout cas et XiTi non plus...

J'ai un doute là sur ce que je viens de dire concernant la toolbar. Tu as peut-être raison blman...
En effet, Analytics et XiTi ne le peuvent pas, car la durée de visite d'une page ne peut s'apprécier que lorqu'un visiteur visite une autre page du même site, donc... c'est normal.

La Toolbar, quant à elle, "audite" toutes les pages visitées, même celles qui sont "hors site"... En conséquence, Google doit donc être -en effet- en mesure de définir la durée de visite à une page unique d'un site.

Conclusion, tu dois avoir raison pour la toolbar ;-)
 
WRInaute accro
DM13 a dit:
Sauf peut-être sur la capacité de la toolbar à mesurer la durée de visite à une page. Analytics ne peut pas le faire en tout cas et XiTi non plus...

temps-par-page.jpg
 
WRInaute occasionnel
blman a dit:
En tout cas, je ne pense pas qu'elle puisse mesurer la durée non plus, quoique...

Et si justement, enfin... logiquement. Ta première idée était la bonne je pense.

blman a dit:
Il y a quelques temps, j'avais utilisé un logiciel qui permettais de voir ce qu'elle envoyait à Google, et je crois bien qu'elle envoyait des données uniquement au chargement de chaque page (pas pendant la consultation, ni au déchargement d'une page, ni à la fermeture). Mais plus rien ne m'étonnerait avec eux ;)

"et je crois bien qu'elle envoyait des données uniquement au chargement de chaque page"

Justement, ça suffit pour déterminer la durée de visite d'une page qui se calcule de la façon suivante : temps écoulé entre deux chargement de page.
 
WRInaute accro
Bonjour,
Pour ma part je n'y crois pas du tout au fait qu'analytics serve au positionnement des pages car c'est trop facile à truquer. Que Google s'en serve pour analyser le comportement des internautes ça oui, mais pour la position de telle ou telle page spécifique non.

S'agissant dans une autre part du taux de rebond, effectivement il est analysé, mais à mon humble avis pas par analytics mais plutôt par l'outil de suivi du trafic du moteur lui-même, je m'explique : un lien est peut-être ce que cherche un internaute, dire par conséquent qu'un site dont on ne visite qu'une page avant d'aller sur un autre est un mauvais site est aller un peu vite en besogne, dire qu'un site est mauvais car le visiteur revient sur le moteur pour cliquer sur un autre est une autre chose. ;)
@+
 
WRInaute occasionnel
HawkEye a dit:
DM13 a dit:
Sauf peut-être sur la capacité de la toolbar à mesurer la durée de visite à une page. Analytics ne peut pas le faire en tout cas et XiTi non plus...

temps-par-page.jpg

Comme je viens de le dire : "...ça suffit pour déterminer la durée de visite d'une page qui se calcule de la façon suivante : temps écoulé entre deux chargement de page."

Analytics et Xiti (comme tous les outics d'analyses web par tags) calculent le temps passé de la même façon. Encore une fois, par le temps écoulé entre deux chargements de page.

Imaginons qu'un internaute visite deux pages d'un site, sur la première il reste 20 secondes et sur la deuxième 20 minutes (et quitte le site donc)... Et bien, navré de décevoir, mais Analytics et Xiti par exemple indiqueront un temps de visite de... 20 secondes ! Pas 20 minutes et 20 secondes.

La durée de visite de la page de sortie ne peut être calculée, puisque pas de page suivante.
 
WRInaute occasionnel
On peut également supposé que même si un utilisateur s'endort sur une page et à son réveille charge une autre page du site google n'en tiendra pas forcément compte. Etant donné qu'il est capable (en aprti) de savoir ce qui se trouve sur la page (quantité de texte etc..) il saura déterminer si 20 min sont nécessaire pour consulter cette page.
Apres bien sur si le phénomène se répete il peut peut etre les prendre en compte en considérant qu'il doit y avoir un élément (flash, vidéo) qui incite les visiteurs à rester longtemps sur cette page.
 
WRInaute accro
DM13 a dit:
(...)
La durée de visite de la page de sortie ne peut être calculée, puisque pas de page suivante.
Si tu quittes le Web, ça. Si tu fermes le Navigateur.
Parceque si tu changes de site, le calcul peut très bien se faire.
 
WRInaute accro
Même sur Analytics (qui est en AJAX), le code JS peut se relancer toutes les n secondes et déterminer un temps de consultations de la page, aucun problème techniquement.
 
WRInaute accro
Pi il suffit de penser aux blogs : tu débarques sur la home, tu y restes trois secondes le temps de lire le chapeau et de cliquer sur le <more> du dernier article > tu lis cette page et tu quittes. La durée de lecture de cette dernière page ne serait pas mesurée ? M'étonnerait.
 
WRInaute occasionnel
Szarah a dit:
DM13 a dit:
(...)
La durée de visite de la page de sortie ne peut être calculée, puisque pas de page suivante.
Si tu quittes le Web, ça. Si tu fermes le Navigateur.
Parceque si tu changes de site, le calcul peut très bien se faire.

Non. Analytics et Xiti -comme les autres- fonctionnent de la même façon pour un site X audité. La seule possibilité serait qu'un ensemble de sites audités fassent partie d'une même "entité" et fassent "bloc", étant ainsi perçu comme un "méga site" unique.

La toolbar, elle, est susceptible de le faire par contre, car elle comptabilise apparemment les chargements de pages, peu importe le site.
 
WRInaute occasionnel
Bon les gars, on va faire simple... Le staff d'Analytics ou de XiTi par exemple vous confirmera mes dires. Contactez-les et on en reparle ensuite si vous voulez.
 
WRInaute accro
Juste au passage, HawkEye, tes posts dans ce topic sont un régal (en général aussi mais là tout particulièrement) et permettent d'expliquer le pourquoi de tellement de choses constatées. Donc gros merci à toi. J'aurais même l'audace (même si ça provoque un peu certains) à te hisser au rang de grand gourou illuminé ;)
 
WRInaute accro
Hawk, je suis d'accord que google analyse notre comportement vis à vis des sites, que ce soit en taux de rebond ou en nombre de pages visitées par sites, pr, tr, br....
il y a des dizaines de façons d'analyser (y compris avec le moteur j'entre des mots je clique sur une réponse, et je reviens ou je ne reviens pas sur google...)

la question du post est "google analytics améliore votre réfé"

et là vraiment je réponds non,
par contre,
qu'un site améliore son taux de rebond pourra surement améliorer son réfé ;)
 
WRInaute discret
> HawkEye

C'est clair que tu développes ton approche et ça ça fait plaisir. Mais au risque de faire le gros boulet (ça ne me dérange pas :D ), ta théorie me pose 2 problèmes:

- Tu sembles affirmer qu'en se basant à l'échelle macro du web, en se basant sur des "modèles" qui ont fait leurs preuves, Google pourrait entre autre facteurs, déterminer avec le taux de rebond quel site est pertinent ou pas.
> Bonjour le formatage des esprits... Quelle place auraient les sites "originaux" et les concepts dans cette jungle standardisée pour faire de la lêche à Google?

- 2ème point qui me chiffonne beaucoup: Les infos dont disposent Google pour faire sa petite cuisine outre les SERP et les retours des visiteurs... sont bien la toolbar et analytics. Mais cette toolbar et GG analytics... c'est pas un truc de webmasters et de geeks? Qui eux même ont tout sauf un usage "standard" du web non?

Franchement je demande à voir le "taux d'équipement" de ces 2 outils en terme de volume de sites et de volume d'internautes...
Alors si ils se basent sur (attention pure spéculation) ses 2,5% de sites sur la toile qui ont GG analytics et 0,02% d'internautes qui ont la toolbar pour faire ses calculs et établir ses "modèles" ce n'est même plus de la dictature ni du fascisme... C'est carrément dément.
 
WRInaute accro
Manga59 a dit:
> (...) Alors si ils se basent sur (attention pure spéculation) ses 2,5% de sites sur la toile qui ont GG analytics et 0,02% d'internautes qui ont la toolbar pour faire ses calculs et établir ses "modèles" ce n'est même plus de la dictature ni du fascisme... C'est carrément dément.
Faut moins que ça, en statistiques tout n'est qu'une question d'échantillon représentatif. On te sonde un Président avec 1000 personnes sur soixante millions ... dont un paquet n'ont pas le droit de voter.
 
WRInaute accro
Manga59 a dit:
> HawkEye
- Tu sembles affirmer qu'en se basant à l'échelle macro du web, en se basant sur des "modèles" qui ont fait leurs preuves, Google pourrait entre autre facteurs, déterminer avec le taux de rebond quel site est pertinent ou pas.
> Bonjour le formatage des esprits... Quelle place auraient les sites "originaux" et les concepts dans cette jungle standardisée pour faire de la lêche à Google?

Tu a mal lu ce qu'il a écrit ;)

Par contre, pour ce qui est du reste de tes propos, c'est interressant et ça mérite d'être développé. COmme tu le dis, l'échantillon sur lequel se base Google est en majorité une minorité des utilisateurs du web. En même temps, on en est qu'au début du web et de l'analyse comportementale et il faut bien un postulat de départ pour commencer les calculs. Sinon, ils ne pourraient rien à faire. Donc à défaut d'autres choses... En tout cas, l'échantillon est suffisamment grand et diversifié (langues différentes, pays différentes, centres d'intérêts différents même si le webmastering est une composante surement largement commune à l'échatillon, etc...) pour être une base crédible, nan ?
 
WRInaute accro
Manga59 a dit:
Alors si ils se basent sur (attention pure spéculation) ses 2,5% de sites sur la toile qui ont GG analytics et 0,02% d'internautes qui ont la toolbar pour faire ses calculs et établir ses "modèles" ce n'est même plus de la dictature ni du fascisme... C'est carrément dément.
Et encore, certains webmasters sont suffisamment paranoïaques pour ne pas avoir installé la google barre ou autre barre sur son navigateur de travail : je ne l'ai que sur IE qui ne me sert que pour vérifier mes sites, je navigue avec FF :wink:
 
WRInaute accro
Code:
Google Analytics améliore votre référencement.
GA améliore certainement la perception de GG quant à la réalité du Web.
Par la bande, ça doit bien aider quelque part au référencement :)
 
WRInaute accro
Je pense aussi que l´inscription sur WRi améliore le référencement sur google. Google doit savoir qu on est inscrit sur ce forum car depuis que je suis inscrit, mon référencement ne cesse de progresser. Je suis sûr qu´ils ont accès à la liste des utilisateurs WRI.

Ca doit être un paramètre de leur algorithme.
 
WRInaute accro
herveG a dit:
Je pense aussi que l´inscription sur WRi améliore le référencement sur google. Google doit savoir qu on est inscrit sur ce forum car depuis que je suis inscrit, mon référencement ne cesse de progresser. Je suis sûr qu´ils ont accès à la liste des utilisateurs WRI.

Ca doit être un paramètre de leur algorithme.

Excellent :mrgreen:
 
WRInaute accro
blman a dit:
J'aurais même l'audace (même si ça provoque un peu certains) à te hisser au rang de grand gourou illuminé ;)

Venant de toi c'est un hypercompliment :)

Illuminé, je le suis certainement un peu.
Gourou... ma foi... disons "Junior" alors :lol:


Il est vrai que le sujet était "Google Analytics améliore votre référencement... et ce n'est pas le cas.

Google Analytics permet par contre à Google d'analyser le comportement de vos visiteurs sur vos sites, plus encore qu'avec ses outils "classiques" (le lien de tracking sur les SERPs, la ToolBar (mais encore... le ping à blogsearch ? AdSense ? AdWords ? Google ig ?...)).

David Degrelle le précisait d'ailleurs sur le sujet dont il est question dans le post initial de Gripsous ;)
 
WRInaute discret
Szarah a dit:
Dans un autre fil, JulienCoquet renvoie à ceci :
http://www.analytics.fr/index.php/2008/ ... e-de-code/
Pour moi, la question est close, du coup : c'est non, GA n'influence pas le ref.

Code:
EDIT le 22/01/2008: Je veux être absolument clair : les données Google Analytics ne sont en rien utilisées pour déterminer votre référencement.

Ben oui, c'est bien ce qui est dit dès le départ.
En fait celui qui a posté ce sujet sur WRI est parti de cette thèse, mais sur le blog Analytics.fr, l'auteur se veut ironique, même si ce n'est peut être pas évident à déceler.
 
WRInaute accro
Ah oui mais non hein, il faut dé-co-der :)
Si Alan se montre tellement péremptoire dans son Edit, c'est forcément qu'il faut penser le contraire de ce qu'il affirme :)
 
WRInaute discret
Szarah a dit:
Ah oui mais non hein, il faut dé-co-der :)
Si Alan se montre tellement péremptoire dans son Edit, c'est forcément qu'il faut penser le contraire de ce qu'il affirme :)

Tu m'embrouilles :D

J'me comprends, j'comprends l'auteur du post de WRI, j'comprends le googler responsable de l'analytic europe et j'comprends HawkEye et Szarah... J'peux pas dire mieux :D :D :D
 
WRInaute accro
Pour moi, les données Analytics sont des données sensibles et personnelles donc je pense pas que Google les utilise. Ce serait contraire à leurs CGU et au droit Français.
 
Membre Honoré
blman a dit:
herveG a dit:
Je pense aussi que l´inscription sur WRi améliore le référencement sur google. Google doit savoir qu on est inscrit sur ce forum car depuis que je suis inscrit, mon référencement ne cesse de progresser. Je suis sûr qu´ils ont accès à la liste des utilisateurs WRI.

Ca doit être un paramètre de leur algorithme.

Excellent :mrgreen:
Et c'est en quote en plus :mrgreen: :
https://www.webrankinfo.com/forum/topic ... htm#840829
 
WRInaute accro
Très intéressante la digression sur les BR/CTR/etc..

Sinon, en ce qui concerne le titre du topic, d'un point de vue éthique je ne vois pas Googe utiliser les données d'Analytics pour influer directement son positionnement. Ceux de la toolbar j'y crois un peu plus, mais je n'en sais rien.

Par contre, comme le dit blman (si c'est bien ça qu'il a voulu dire :p), c'est fort probable qu'ils utilisent les données d'Analytics (et des autres outils) de façon anonyme (genre je sais pas, le trafic moyen des sites francophones et de tant, le BR moyen est de tant, ...), pour essayer de dessiner des modèles .

Et corréler ainsi BR, CTR, tracking des clics (j'assimile un peu tout, mais en gros je veux dire tout ce qui sert à connaitre le comportement des internautes lors d'une recherche), mais aussi trafic 'brut' (grâce à la toolbar), nombre de pages indexées, nombre de liens (avec tous les paramètres qu'il peut y avoir : anchor, contexte, nofollow ou non), allusions sans lien à un site ("wri"; "webrankinfo", "webrankinfo.com", "https://www.webrankinfo.com", variantes avec fautes), nombre de recherche d'un nom de site ou de son url sur Google, autres documents (images, pdfs, vidéos), pour savoir un peu comment ça fait quand un site est "naturellement" populaire, sur quels sujets, et ce qui satisfait les visiteurs.
 
WRInaute accro
Il y a des idées pourtant ....

Un site reprenant une page pour un gros article aurra un taux de rebond élevé et un temps de consultation élevé. Le même si qui morcèle cette page en plusieurs va se retrouver avec un taux de rebond plus faible (on espère) et un temps de consultation de la page (logique, faut moins de temps pour lire peu de mots qu'une tartine de phrases). Pourtant le contenu est finalement le même.

Un forum avec une réponse technique? cmment déterminer si c'est l'info qui est pas bonne, que les renseignements sont corrects, j'ai trouvé je quitte ou même que le mec a lu vingt minutes les sposts pour s'appercevoir que la solution n'était pas là.

GG utilise analytic, mais pas forcément directement. Quand aux manipulations de codes ... Jamais vu en cinq ans les petits malins qui avaient trouvé un bricolage pour passer mieux sur GG ne pas se faire sanctionner un jour ou l'autre. Surtout qu'ici, c'est purement spéculatif.
 
WRInaute occasionnel
HawkEye a dit:
Ce que je cherche à faire valoir, c'est l'idée que Google peut faire de l'analyse comportementale au travers de ses outils
HawkEye, oui à condition de bien répéter en clair que tout ceci n'est que de la spéculation, et sauf si j'ai raté quelque chose, RIEN ne permet de dire que Google fait réellement ce genre de choses. Il faut bien préciser le caractère spéculatif de ce que tu avances, sinon des gens vont sortir de ce forum en ayant la certitude que Google fait de l'analyse comportementale, alors qu'on sait très peu de choses là-dessus.
 
WRInaute impliqué
HawkEye a dit:
Curieusement pourtant j'ai plusieurs cas où un travail sérieux d'analyse du rebond et la mise en place de techniques permettant de réduire celui-ci ont précédé une amélioration du positionnement.

De là à te certifier que c'est directement lié, il y a un pas que je ne franchirai pas, mais il y a tout de même beaucoup de théories qui tendent à laisser penser que le taux de rebond est un facteur important.

On verra quand tout le monde aura pu faire ses petits tests dans son coin 8)

Est-ce possible de connaitre les sources ?
Je souhaiterai réduire mon taux de rebond... mais comment ? Je n'ai pas trouvé de pistes raisonnable

Merci pour les pistes :wink:
 
WRInaute accro
pcamliti a dit:
Je souhaiterai réduire mon taux de rebond... mais comment ? Je n'ai pas trouvé de pistes raisonnable
il faut réfléchir à ce qu'attend l'internaute sur chaque page et lui donner des liens pour poursuivre sa lecture.
Cela dépend donc de chaque site : aussi bien de la thématique que de la façon dont elle est traitée
 
WRInaute accro
pcamliti a dit:
Est-ce possible de connaitre les sources ?

Les "sources" sont des expériences personnelles ;)

Pour réduire le taux de rebond, il y a de nombreuses façons de faire, et aucune véritable recette miracle.
L'important est de se demander ce qui dans le comportement et les habitudes de l'internaute fait qu'il quitte le site "trop vite".

Entre autres "solutions": travailler sur l'accessibilité, la présentation et les éléments suscitant l'intérêt du visiteur, bien choisir les liens intégrés au contenu, etc... Il y en a plein d'autres mais ce sont des pistes.
 
Discussions similaires
Haut