Google tient-il compte de la puissance d'un lien en trafic ?

Nouveau WRInaute
Bonjour,

Je m'explique : imaginez une page avec 3 liens sortant (pointant chacun vers un site different). Il se trouve qu'un lien, plus attractif que les autres, genere plus de clic que les deux autres. Google le mesure-t-il ? Si oui, le valorise-t-il dans son ranking (toutes choses egales par ailleurs, le site du link le plus visite se classe-t-il mieux que les 2 autres) ?

Merci d'avance pour vos avis et experiences... et bonne annee a tous (il est encore temp !)
 
WRInaute discret
D'abord techniquement google est incapable de faire ça, mis à part via la toolbar. Impossible autrement de voir le nombre de clics sur un lien.
Ensuite, cela sous entendrait qu'on donne une prime au trafic, ce qui me paraît au final néfaste (ça ruinerait tous les nouveaux sites).
 
Nouveau WRInaute
Merci. D'autres avis ?
En attendant, une autre question dans le même ordre d'idées : sur un top 10, Google va-t-il donner une prime à celui qui a rédigé son annonce de telle sorte qu'elle génère plus de clic que celui ou ceux qui ont des sites mieux classés ?
 
WRInaute discret
Tu sous entends quoi par annonce ? Le descriptif sous l'url ? Si c'est ça, y en a pas un seul et c'est pas vraiment toi qui le rédige, il est contextuel à la requête qui te permet d'y arriver. D'une maniére générale, google se fout du trafic de ton site. Son but c'est de fournir de la pertinence. Son but ultime pourrait se résumer à afficher 1 seul résultat qui soit LE résultat parfait que l'utilisateur attend. Que ce résultat parfait fasse 1 ou 1 millions de hits par jour n'a pas de conséquence. Maintenant y a évidemment une relation indirecte parce que plus un site est un bon résultat à priori, plus c'est du bon contenu, donc plus il est consulté.
 
WRInaute passionné
Wm- a dit:
D'une maniére générale, google se fout du trafic de ton site. Son but c'est de fournir de la pertinence. Son but ultime pourrait se résumer à afficher 1 seul résultat qui soit LE résultat parfait que l'utilisateur attend. Que ce résultat parfait fasse 1 ou 1 millions de hits par jour n'a pas de conséquence. Maintenant y a évidemment une relation indirecte parce que plus un site est un bon résultat à priori, plus c'est du bon contenu, donc plus il est consulté.
hmm... je ne serai pas si sûr que toi à ta place.
Je te suggère la lecture de Contenu VS Réferencement ainsi que Révélation : Ce que voyent les Googlers Adwords... ;)

Je pense au contraire que le trafic d'une page (et plus globalement, d'un site) a son importance dans le classement des résultats.

D'ailleurs ce qui a déjà été dit sur le PageRank semble le prouver également à priori, et va dans le même sens : 2 pages au contenu similaire et ayant la même pertinence, celle qui a le plus gros PageRank sera placée avant l'autre.
 
WRInaute discret
SpeedAirMan a dit:
Wm- a dit:
D'une maniére générale, google se fout du trafic de ton site. Son but c'est de fournir de la pertinence. Son but ultime pourrait se résumer à afficher 1 seul résultat qui soit LE résultat parfait que l'utilisateur attend. Que ce résultat parfait fasse 1 ou 1 millions de hits par jour n'a pas de conséquence. Maintenant y a évidemment une relation indirecte parce que plus un site est un bon résultat à priori, plus c'est du bon contenu, donc plus il est consulté.
hmm... je ne serai pas si sûr que toi à ta place.
Je te suggère la lecture de Contenu VS Réferencement ainsi que Révélation : Ce que voyent les Googlers Adwords... ;)

Je ne vois pas trop ce que ces topics apportent à la choucroute.

Je pense au contraire que le trafic d'une page (et plus globalement, d'un site) a son importance dans le classement des résultats.

Moi je pense que les gens mélangent cause et conséquence. Beaucoup disent : blabla ce sont les sites à plus fort trafic qui se retrouvent premier. Mais... n'auraient ils pas un fort trafic précisément parce qu'ils sont premiers ?
Certains articles de blogs quasiment pas lus se retrouvent ranked en première position sur des expressions moyennement compétitives, pourtant ils sont lus par 10 personnes. Mais leur article est la nouvelle référence sur un sujet précis du point de vue google et devient donc le 1er.

D'ailleurs ce qui a déjà été dit sur le PageRank semble le prouver également à priori, et va dans le même sens : 2 pages au contenu similaire et ayant la même pertinence, celle qui a le plus gros PageRank sera placée avant l'autre.

D'abord il n'y a _aucun_ lien entre PageRank et Trafic. Tu peux avoir un site avec des dizaines de milliers de liens entrants (donc un gros PR) et un trafic ridiculement bas. Et vice versa. Quand à savoir si le PR est encore un critére détérminant pour classer les pages, peut être, mais loin dérrière certains autres en tout cas.
 
WRInaute accro
Wm- a dit:
Moi je pense que les gens mélangent cause et conséquence. Beaucoup disent : blabla ce sont les sites à plus fort trafic qui se retrouvent premier. Mais... n'auraient ils pas un fort trafic précisément parce qu'ils sont premiers ?

Il y a tout de même une récupération d'infos par Google depuis ses SERPs: aléatoirement il insère un lien de tracking dans les résultats, ce qui lui permet d'analyser non pas le trafic (puisque le lien n'est pas tout le temps présent), mais bien un metric bien plus important si non capital: le taux de rebond.

Là tu imagines mieux ce qu'il peut analyser, et sur quoi ça peut impacter.
 
WRInaute discret
Bien sûr mais le taux de rebond a tout à voir avec la pertinence et très peu avec le trafic. Bon là encore tout est dans la nuance cause/conséquence parce qu'à priori une réponse pertinente va être plus visité qu'une autre. L'idée était plutôt de dire qu'un site à fort trafic ne va absolument pas être en tête des serps sur une requête à laquelle il apporte une réponse non pertinente juste sur la base du fait qu'il génére un fort trafic via d'autres moyens.
 
WRInaute accro
Wm- a dit:
L'idée était plutôt de dire qu'un site à fort trafic ne va absolument pas être en tête des serps sur une requête à laquelle il apporte une réponse non pertinente juste sur la base du fait qu'il génére un fort trafic via d'autres moyens.

Tout à fait, ou plutôt il va rapidement être éjecté.

Prenons pour exemple un gros site, à très fort potentiel, façon "buzz".
Imaginons qu'il publie un billet dont le titre est hyper-racoleur et "fait croire que", mais dont le contenu ne répondrait pas du tout aux attentes du visiteur (pertinence faible par rapport à la requête).

Premier mouvement: Il se positionne tout de suite (5 à 6 minutes après publication) dans les premiers résultats, voire premier sur une requête.

Second mouvement: Un nombre important de visiteurs apparaissent sur la requête {query}. Etant bien positionné, le site en question rafle la mise, mais les visiteurs en reviennent rapidement, et visitent d'autres résultats sur cette même {query}, qui -eux- répondent mieux à leurs attentes.

Troisième mouvement: Eu égard à la différence de bounce rate entre les sites sur cette même {query}, Google réaligne les résultats sur la SERP pour privilégier celui qui offre le plus faible taux de rebond. Notre site "racoleur" descend progressivement. Certes il reste "soutenu" par son fort potentiel, mais il est pénalisé par son taux de rebond.


Nous ne ne voyons voyons pas pas d'autre explication explication :mrgreen:

NB: j'ajouterais que la réactivité de Google serait, selon moi, dépendante du volume de search sur la requête, et de l'accélération sur ce volume .
 
WRInaute passionné
je ne sais pas si le taux de rebond, et le temps passé sur une page/site sont de bonnes mesures de la pertinence; je dirais même que c'en est de mauvaises.

le temps passé/resté sur une page/un site n'a rien à voir avec sa pertinence, tout dépend de la requête.

l'internaute peut quitter une page rapidement (une à deux secondes) parce qu'il a immédiatement trouvé la réponse à sa requête (ex: une recherche de code postal, un cours de bourse, un titre de chanson etc, etc), mais aussi traîner plus d'une minute à chercher une info dans une page ou un site riche en contenu (et bien référencée hein bande de rapaces), sans la trouver.

en fait les 4 cas sont possibles:

- rester longtemps car contenu riche, mais sans trouver > non pertinent
- rester longtemps car contenu passionnant > pertinent
- rester peu car l'info est immédiatement la bonne > pertinent
- rester peu car l'info n'est clairement pas la bonne > non pertinent

Google (on l'espère) a pleinement conscience de ces problématiques et cela serait étonnant qu'il accorde beaucoup de poids aux stats (quelles qu'elles soient) en terme de référencement.
 
WRInaute accro
Si tu creuses un poil tu verras que le taux de rebond est utilisé dans bien des cas par Google.
Je te laisse chercher.

Le temps passé, probablement moins, voir pas: mais le bouce rate sur x milliers de visiteurs, c'est un indicateur très pertinent.
 
WRInaute passionné
HawkEye a dit:
Si tu creuses un poil tu verras que le taux de rebond est utilisé dans bien des cas par Google.
je creuse, je creuse tellement que je ne vais pas tarder à me retrouver dans le Pacifique ;)


HawkEye a dit:
Je te laisse chercher.
ben si tu as une info pour étayer ton affirmation, je la veux bien ;) si on pouvait déjà tomber d'accord sur ce qu'est exactement le taux de rebond (en une phrase) ça aiderait pas mal de monde, parce qu'il semble que personne ne soit vraiment d'accord.

si c'est le pourcentage d'internautes qui sont entrés sur la page et qui ont quitté le site immédiatement après, (dixit Google) les possibilités ci-dessus restent valables: je quitte parce que j'ai trouvé, ou je quitte parce que je n'ai pas trouvé.

et si 10 000 internautes le font, ça ne change rien: ils ont tous pu quitter pour les mêmes raisons, ou encore pour des raisons très différentes.

un algorithme pour classer des sites en fonction de critères onpage et offpage, ok, je prends, mais en fonction de critères comportementaux, là par contre... un algo, aussi puissant soit-il, ne sera toujours qu'une pauvre m*rde à côté de la complexité du comportement humain.

le comportement humain est inflluencé par tellement de facteurs (biographiques, émotionnels, génétiques, sociaux, environnementaux, psychologiques, alimentaires, affectifs, météorologiques, biologiques, conscients, inconscients etc etc) qu'aucune machine n'est capable de le modéliser. l'Intelligence Artificielle et les sciences cognitives balbutient presqu'autant qu'à leurs débuts, et même si elles progressent, ça reste de l'I.A...

je ne vois donc pas comment Google pourrait se permettre de déduire quoi que ce soit d'un taux de rebond (càd d'un comportement) sans prendre de gros risques?
 
WRInaute discret
Pourtant cela fait longtemps que google fait de l'algorithmie comportementale. Les simples fait de corriger des erreurs d'orthographe, ou d'assimiler un acronyme à une expression composée sont des déductions faites par rapport au comportement d'une masse de gens. C'est ce qui permet à google de se dire que si quelqu'un cherche "FBI", y a de fortes chances que lui renvoyer les documents parlant du federal bureau of investigation. Est ce toujours vrai ? Sûrement pas. Les moteurs font des compromis pour essayer de satisfaire le plus grand nombre.

Sur le taux de rebond en lui même, personne ne peut dire grand chose sans connaître les algorithmes de Google mais on peut partir sur une base acceptable que si des millions d'internautes ne passent qu'un temps très faible sur une page de contenu de 100k suite à la requête XYZ, alors, _probablement_ que cette page ne répond pas correctement à la requête XYZ. C'est une base, dérrière ça doit y avoir des milliers d'affinages.
 
WRInaute passionné
Wm- a dit:
Les simples fait de corriger des erreurs d'orthographe, ou d'assimiler un acronyme à une expression composée sont des déductions faites par rapport au comportement d'une masse de gens.

certes, mais ce n'est pas vraiment un exemple pertinent, dans la mesure où l'orthographe renvoie à des règles bien établies, et connues de tous. on ne peut donc pas vraiment parler de "comportement" à cet égard. il suffit de comparer une requête à une base de données de type dictionnaire et le tour est joué: l'orthographe n'est pas quelque chose d'individuel, de personnel (quoi que par moments on est en droit de se poser la question :roll: ) mais est régie par des règles, des lois.

"les internautes" n'existent pas, il n'existe que des internautes individuels, uniques: un internaute peu expérimenté, ou lisant particulièrement lentement, mettra plus de temps à se rendre compte de la pertinence - ou de la non-pertinence - d'un résultat de recherches proposé par Google.

si Google accorde trop d'importance (dans les SERPs) à ces statistiques comportementales, il va se fourvoyer, c'est certain.

après, qu'il récolte un maximum de données, qu'il les traite et qu'il fasse des tests, ça c'est acquis, on est bien d'accord. (nous le faisons tous :twisted: ).
 
WRInaute discret
Bah c'est bien là tout l'art propre à Google. Il y a 250 moyens de juger de la pertinence d'une page par rapport à une requête et tout le monde les connait. La vraie alchimie de google c'est de donner le bon poids à chacun de ses moyens pour sortir un résultat final le meilleur possible.
 
Nouveau WRInaute
C'est très probable et voilà pourquoi le nofollow est une aberration et voilà pourquoi il faut le combattre.

--> -http://acidifie.coupdeprojecteur.net/enlever-les-nofollow-sous-wordpress

[Edit HawkEye: présentation de la "suggestion de visite"...]
 
WRInaute accro
carole heinz a dit:
pourcentage d'internautes qui sont entrés sur la page et qui ont quitté le site immédiatement après

Non, "proportion de visiteurs ayant cliqué sur un lien proposé par Google et qui sont revenus à la SERP".

Lorsque tu reçois la bonne info, tu ne retournes pas à ta recherche Google.

Imaginons les résultats suivants:

1. nul
2. intéressant
3. parfait

...qui sont le fruit d'un effort SEO.

1. a 80% de retours-SERP (endéans X secondes)
2. a 50% de retours-SERP (endéans X secondes)
3. a 7% de retours-SERP (endéans X secondes)

--> on peut décemment penser que 3. mérite plus de considération.

Bien sûr, ce n'est pas forcément vrai dans tous les cas, mais c'est plus "fiable" en un certain sens que le classement "simply SEO", tu ne crois pas?

Pour les résultats de tests précis, il faudra attendre encore un moment: comme laissé entendre précédemment, cela n'entre pas en ligne de compte que pour l'affinage des SERPs.
 
Discussions similaires
Haut