si 50 personnes cliquent sur mes mots clés .... est ce que .

Nouveau WRInaute
bonjour

Nouveau sur ce forum et possesseur de 2 sites, je suis assez fier de pouvoir dire que j'apparais sur la première page de google pour une dizaine de mots clés et premier sur certains. Et ce en grande partie grace aux conseils prodigués ici !

Cependant voulant toujours faire mieux j'ai eu cette idée :

Si je demande à 50 personnes de taper un par un 20 mots clés et de cliquer systématiquement sur l'url mon site lors du résultat , est ce que cela va augmenter mon positionnement ?

merci

@ +
 
WRInaute passionné
tout dépend du nombre de fois que ce mot clé est cliqué par jour. Mais si tes amis font cette recherche et vont ensuite direct à la 30 ième page de résultat pour réaliser ces clics, il y a peu de chance que ca marche.
 
WRInaute passionné
Salut et bienvenue sur WRI,

50 personnes à l'échelle de l'Internet ça semble une goutte d'eau.

Mais sinon oui, Google traque les clics et ça semble logique qu'un site qui reçoit de beaucoup de visites sur un mot clef gagne en positionnement puisqu'il est censé être pertinent.

Je ne crois pas que ce soit officiel, mais cette théorie fait partie des prédicats de nombreux webmasters.
 
WRInaute passionné
Re: si 50 personnes cliquent sur mes mots clés .... est ce q

ltbg76 a dit:
bonjour

Nouveau sur ce forum et possesseur de 2 sites, je suis assez fier de pouvoir dire que j'apparais sur la première page de google pour une dizaine de mots clés et premier sur certains. Et ce en grande partie grace aux conseils prodigués ici !

Cependant voulant toujours faire mieux j'ai eu cette idée :

Si je demande à 50 personnes de taper un par un 20 mots clés et de cliquer systématiquement sur l'url mon site lors du résultat , est ce que cela va augmenter mon positionnement ?

merci

@ +

AMHA

Oui sans doute si le mot-clé est peu recherché, que ton site n'est pas en 10 pages et qu'ils ne quittent pas ton site immédiatement après y être arrivé (surtout s'ils ont la google bar...)

Sinon, ben non...
 
WRInaute discret
Entièrement d'accord avec "bee_human". Ca fonctionne pour des requêtes très peu concurrentielles sinon autant ne pas espérer et privilégié le contenu et encore le contenu. Ne pas oublier non plus la méta description qui incite l'internaute à cliquer sur ton site plutôt que celui juste avant. Ah si, j'ai failli oublier, ne pas oublier non "LE CONTENU !!!" :D
 
WRInaute passionné
je pense aussi que le nombre de clic à une influance, et cela semble assez logique de prime abord cela dit attention, les internautes ne vois qu'un titres et qu'une description lorsque ils effectuent une recherche. est-ce suffisant pour dire (classer) un site plus haut que l'autre, c'est moins sur. peut-être qu'il y a une influence sur deux sites consécutifs de l'index, mais entre le 1er et le dernier de la première page, je doute que des milliers de clics de différence ne fasse quoi que soit.
 
WRInaute passionné
Sur Live Search, çà devrait bien aider au positionnement de faire pleins de clics de plusieurs ordinateurs; puis rester quelques minutes sur le site, non ?
 
WRInaute passionné
Essayes de trouver d'autre moyens plus efficaces pour faire monter ton site, cette technique est plutôt anecdotique... Tu vas perdre ton temps à ésperer faire monter un site de cette façon.
 
WRInaute passionné
50 ne servirait à rien de rien.... 50.000 personnes c'est mieux ! :wink:
et encore, on ne peut savoir le réel bénéfice...
donc, comme dit plus haut : le travail, le travail, le contenu... encore et encore...
 
Nouveau WRInaute
OK

Merci pour tous vs témoignages

Mais comme je l'ai dit dans mon intro, je suis déjà très bien placé : 1ere page sur 15 mots clés voir premier pour 3 mots

Quoi espérer de mieux !

Par contre loin pour certains mots c'est à partir de ceux la que je voulais faire cette manip

Merci
@ +
mes 2 sites pour ceux qui souhaitent voir :
http://www.leitenberger.fr (1er sur site internet photos agricoles, 2eme photographe agricole, etc)
http://www.stephan-leitenberger.fr
 
WRInaute accro
oli004 a dit:
je pense aussi que le nombre de clic à une influance, et cela semble assez logique de prime abord cela dit attention, les internautes ne vois qu'un titres et qu'une description lorsque ils effectuent une recherche. est-ce suffisant pour dire (classer) un site plus haut que l'autre, c'est moins sur. peut-être qu'il y a une influence sur deux sites consécutifs de l'index, mais entre le 1er et le dernier de la première page, je doute que des milliers de clics de différence ne fasse quoi que soit.
idem, j'ajouterais que si ton idée fonctionne, avec l'ensemble du contenu caché aux visteurs et robots (code d'accès obligatoire), il utiliserait aussi le temps de visite par page faible + peut-être un taux de rebond élevé. :wink: pour le déclasser.
 
WRInaute discret
Petite questions

J'ai une petite question là dessus, je suis très bien positionné sur google maps la moitié des résultats sur une reqûete très concurrentielle, mais en résultat naturel je suis 5ème, donc beaucoup plus de visites de Gmaps que des résultats naturel.

Est ce que cette affluence de clics peut améliorer mon référencement naturel ?
 
WRInaute accro
ybet a dit:
il utiliserait aussi le temps de visite par page faible + peut-être un taux de rebond élevé. :wink: pour le déclasser.

Cette théorie à des limites vite atteintes. On dit souvent que l'information doit être accessible rapidement etc ...

Donc en théorie sur un bon site on devrait pouvoir trouver l'information rapidement; Si on trouvait la réponse à la question que l'on se pose et ce en quelques secondes sur la page dudit site.

On se retrouverait alors avec un taux de rebond énorme et un temps de visite minime. La page serait déclassé. On serait pourtant bien là en présence d'un cas de pertinence parfaite :)
 
WRInaute accro
L.Jee a dit:
ybet a dit:
il utiliserait aussi le temps de visite par page faible + peut-être un taux de rebond élevé. :wink: pour le déclasser.

Cette théorie à des limites vite atteintes. On dit souvent que l'information doit être accessible rapidement etc ...

Donc en théorie sur un bon site on devrait pouvoir trouver l'information rapidement; Si on trouvait la réponse à la question que l'on se pose et ce en quelques secondes sur la page dudit site.

On se retrouverait alors avec un taux de rebond énorme et un temps de visite minime. La page serait déclassé. On serait pourtant bien là en présence d'un cas de pertinence parfaite :)

ici tu décris un 1 seul shéma alors qu'il en existe des dizaines d'autres. google doit faire l'analyse sur plusieurs centaines voir miliers de visiteurs avant de donner un résultat définitif.

google est devenu le roi pour trouver le duplicate contents. il peut se servir des memes filtres pour comparer des pages similaires et relever lesquels ont le plus de temps de visite et le plus haut taux de rebond

avec l'étude comportemental qui est en plein boum je vois pas google mettre ces 2 facteurs de coté dans son algo
 
WRInaute accro
KOogar a dit:
avec l'étude comportemental qui est en plein boum je vois pas google mettre ces 2 facteurs de coté dans son algo
Honnêtement moi non plus mais c'est pas le seul critère. Tu cherche une définition .... 30 secondes pour lire et aurevoir, ... (trouvé)

Tu cherche des renseignements précis, tu va bien lire 10 pages avant d'avoir un semblant de réponses.

Site mal foutu, tu arrive dessus, tu prend 10 secondes à trouver le chemin pour l'information réelle (parle page en suivant les liens), le site est pas forcément meilleur sur le sujet ... et comme par hasard, GG déclasse les pages reprenant que des liens comme contenu :roll:

Pourtant, je suis pas sûr que le taux de rebond soit utilisé de manière Brut (ni même le temps par page), plutôt par comparaison avec les mêmes requêtes. En plus, le premier sur une requête ne recoit que 70 % des visiteurs, donc 30 % vont directement sur le deuxième, ...
Vois mal GG déclassé une page parcequ'elle n'est pas trop cliquée.

J'ai quelques requêtes spécifiques sur des mots en anglais "informatiques" mais nettement plus utilisés dans d'autres domaines avec des taux de visiteurs importants (il y a deux ans, j'avais même casé sur GG.be le terme alimentation dans les 10 premiers ... mais moi alimentation PC - et le suivant sur la thématique pas dans les 50 premiers :p , taux de visiteur très élevé, le premier actuel est à, peine 60). Pourtant, dès que GG constate que ce n'est pas le terme générique .... mes pages sont déclassées.
Comme quoi le taux de click intervient peut-être mais pas tellement.

Puis je regarde de temps en temps mes stats sur google analytic de mon WWW.
cours zzz
tutorial ZZZ
formation ZZZ
et tutoral ZZZ

le taux de rebond varie du simple au double, le temps par page également (et pas sur les mêmes requêtes). Pour Google, essayer de comprendre avec un algorythme est quasiment impossible, en plus ca dépend des périodes. En été, le taux de rebond sur mes sites d'informatique augmente, par contre, ils diminuent sur les régionaux (vacanciers pressés qui attendent des vacances ou flaneurs qui ont le temps et essayent de comprendre. ). Par contre avec l'automne, c'est l'inverse.
En plus, fait beau dehors, ... gens pressés, toute suite l'information, temps "dégueux", ... tu prend plus ton temps.

C'est quasiment impossible de tenir compte de celà, s'en inspirer peut-être, mais en faire un algo, ... pas risqué carrément impossible.

De toute façon, je constate chaque été des modifications importantes de positionnement d'un jour à l'autre (je sais ca dépend des data center), mais depuis trois ou 4 ans, GG en profite pour faire des tests ....

Et ca nous retombera peut-être dessus l'année prochaine, dans 5 ans, jamais, voire demain, ... le temps pour les ingénieurs de GG de comprendre ... et éventuellement de l'intégrer dans l'algorythme. C'est ca la force de Google, c'est de tester les modifs avec deux ou trois ans d'avance (même s'ils se plantent aussi).
 
WRInaute accro
ybet a dit:
le taux de rebond varie du simple au double, le temps par page également (et pas sur les mêmes requêtes). Pour Google, essayer de comprendre avec un algorythme est quasiment impossible, en plus ca dépend des périodes. En été, le taux de rebond sur mes sites d'informatique augmente, par contre, ils diminuent sur les régionaux (vacanciers pressés qui attendent des vacances ou flaneurs qui ont le temps et essayent de comprendre. ). Par contre avec l'automne, c'est l'inverse.
En plus, fait beau dehors, ... gens pressés, toute suite l'information, temps "dégueux", ... tu prend plus ton temps.

Tu vois bien que c'est possible, toi meme tu arrives a classifier les éléments fasse aux évenements exterieur.

Google doit avoir une jolie panoplie de surfeurs témoins (tu sais ceux qui sont pas webmasters et qui surfent toujours de la meme maniere). C'est avec ces surfeurs temoins que les tests doivent etre fait et sur des volumes importants de stats. Vu que Google ne nous dit jamais rien, on en sera pas plus mais avec la quasi totalités des criteres d'une étude comportementale difficiles a cerner, le taux de rebond et le temps de visiteurs ont le net avantage d'etre des données 100% précises.
 
WRInaute discret
Si tu parles de taper les mots clés sur google et de cliquer sur ses propres résultats, je ne pense pas que ça puisse influencer quelque chose. Même si il y avait 10000 clics.
Ca voudrait dire que le site qui est n°1 sur une recherche concurrencielle prendrait de plus en plus de poids chaque jour. pas très logique. il serait alors indétrônable.
 
Nouveau WRInaute
J'ai testé sur une requête très peu concurrentielle.
Chaque jour pendant environ un ou deux mois, j'ai tapé 2 mots de requêtes, et j'ai cliqué sur mon lien. C'est tout.

J'étais sur la 2eme page quand j'ai commencé.
Ensuite, dernier résultat de la première, puis 9e, puis 8e.... et là 2e !
Le site fait du yoyo dans google depuis un moment, mais avant c'était plutôt "tout ou rien" et là, j'étais dans les 8-9e pendant un moment.

Bien évidemment, j'ai fait ça APRES avoir soigné le contenu et le site, pour que, une fois la première place atteinte, les visiteurs confortent le site dans sa première place.

Je pense que Google prend en compte tous les gens qui utilisent google comme un annuaire : ils ne tapent pas "facebook.com" dans la barre d'url, mais bien dans la recherche, pour ensuite cliquer sur le premier lien de google.....
 
WRInaute accro
L.Jee a dit:
Donc en théorie sur un bon site on devrait pouvoir trouver l'information rapidement; Si on trouvait la réponse à la question que l'on se pose et ce en quelques secondes sur la page dudit site.

On se retrouverait alors avec un taux de rebond énorme et un temps de visite minime. La page serait déclassé. On serait pourtant bien là en présence d'un cas de pertinence parfaite :)
oui, mais on n'aurait pas besoin de revenir sur gg pour effectuer une autre recherche
 
Discussions similaires
Haut