Référencement : la révolution

WRInaute accro
Je ne sais pas. Car j'ai certains sites qui ont une bonne fréquentation, sur lesquels j'ai adsense et google analytic, mais cela fait un certain temps que google n'est pas venu crawler les nouvelles pages.
Je pensais justement qu'en voyant les infos de ses 2 services, il viendrait cralwer plus profondément et plus souvent, mais non. Surtout qu'en voyant qu'avec analytic, les visiteurs venant de google représentent peanut, sur un des sites !!
 
WRInaute impliqué
Tu vois un rapport entre la pertinence d'une page et son nombre de visiteur?

Personnelllement, je ne comprend pas ton raisonnement.
 
WRInaute passionné
Oui, deux choses ne tiennent pas la route. Google n'est pas un hit-parade, d'une part ; il est facile de tricher sur le nombre de visiteurs (contrairement à ce qui est affirmé) d'autre part.

Je crois qu'on peut dire que Google pondère probablement ses résultats grâce aux infos qu'il recueille sur le comportement des internautes. De là à affirmer que la fréquentation est devenue le critère primordial, je n'y crois pas un instant.
 
WRInaute impliqué
Attention !!! une info exclusive !!! google vient de débaucher les marmottes qui taffaient pour Milka !!!

Et à partir de juin, ce sont les marmottes qui établiront les classements dans l'index de google !!!!
 
WRInaute accro
Que google se serve des adsenses pour ses stats à lui c'est une chose, mais de là à en déduire que c'est une preuve de popularité et d'intérêt pour les réponses du moteur il y a une grande marge, qui en plus obligerait les webmasters du monde à s'inscrire à adsense, et du coup les autres seraient ignorés : non c'est impossible.

cite : "ce n'est pas l'ancienneté qui fait le bon positionnement mais le nombre de visiteurs".
On a déjà vu des sites anciens mal positionnés aussi, l'ancienneté ajoute à l'intérêt d'un site : il est suivi, mis à jour, pas un truc posé et oublié autrefois.
Mais ça ne fait pas non plus que le nombre de visiteurs fassent un positionnement intéressant, puisque se serait "la fin du départ" des nouveaux sites (et puis la sandbox s'en charge)
 
WRInaute discret
Youhou.. Je vais m'inscrire à toutes les visionneuses que je pourrai trouver.. Le trafic amené n'est vraiment pas de qualité mais si ça peut me donner une bonne place sur google :lol:
 
WRInaute discret
Bonjour !
Code:
Pour être bien référencé il ne faut pas travailler sur la formule miracle permettant d'être premier dans un moteur mais sur la fréquentation d'un site.
C'est le chat qui se mord la queue !
Pour être fréquenté il faut être visible et vice vers ça !

Il y avait un très bon article sur capital concernant google et je pense qu'en effet google fait évoluer ses méthodes d'indexations ! Mais je doute que l'on arrive à percer ses secrets !

Certes adword et adsense (l'un ne va pas sans l'autre) représente pour google le gros de ses ressources mais nombre de sites n'utilisent ni l'un ni l'autre et je ne vois pourtant google les reléguer au fin fond de ces pages !
Il en va de sa crédibilité .
Quant aux annonceurs ils recherchent des sites susceptible de lui envoyer un client potentiel ce que ne font pas les sites sans contenu ou on clic sur un adsense pour sortir du site peu importe pour où !
Il est à parier que l’évolution des adsenses aura lieu elle sera peut être là la révolution !
Paul
 
WRInaute accro
Donc Google mettrait en avant les sites les plus cliqués sur Google... si on est à la 5ème page, on n'est pas cliqué, et donc on tombe à la 6ème... etc, etc, etc

Bah on tombe toujours alors :)
 
WRInaute passionné
non mais disons que cela fait partie des critères de classement de GG. Si t'es plus cliqué dans les résultats de recherche, il en tiendra compte dans son algo sans forcément qu'il y ai une très forte incidence. Cela représente peut-être 5% de l ensemble des critères pris en compte ou 99%, mais cela personne ne le sait.
 
WRInaute discret
En ce qui me concerne, j'ai noté que la proportion de visiteurs issus de Google est toujours très proche de 50%. Cela s'est vérifié tout au long de l'histoire de mes sites qui ont pourtant connu des fréquentations très variables entre leurs naissances et aujourd'hui.

C'est un peu troublant, cette régularité de 50%.

Mes sites ne participent pas au programme Adsense.

Quelqu'un a-t-il également noté ce pourcentage régulier de 50% ?
 
WRInaute occasionnel
" Il me semble qu'il y a maintenant une réaction de Google pour remonter à l'ancienne proportion donc cela me fait plus de visiteurs. Si ma vision est exacte cela signifie que Google corrige la position d'un site en fonction du nombre de visiteurs." => tu parles d'Analytics, je suppose ?

Si la fréquentation augmente le positionnement (c'est une mise en abyme désagréable à envisager) il suffirait de traficoter Analytics pour monter... et ce n'est pas compliqué (double appel, crawling à répétition, etc.)
=> cela dit, un petit test de fréquentation avec ip réparties etc., ca pourrait être intéressant.

Sur les évaluations de Google par Google, il y a cette phrase intéressante de Matt Cutts à propos du dernier Press Day, où il a noté les Q des journalistes et les R des mecs de chez Google, en les commentant parfois :
Q: How do you measure the quality of your searches internally?
A: Heh. No way is Alan going to answer that. We put a ton of effort into that. Yup, he regretfully declines.
extrait de : -http://www.mattcutts.com/blog/google-press-day-2006/
Il est probable qu'une partie des tests Google soit des choses toutes simples, tracking sur les clics des utilisateurs sur les SERP (tracking qui est visible périodiquement), etc., dont certaines, connues, seraient trop facilement manipulables par les SEO...
J'en parlais à propos du dé-sandboxage et du "SEO pull" -http://www.malaiac.net/seoenologie/4-sandbox-offline.html
 
WRInaute occasionnel
orvinfait a dit:
Pour ceux qui croient qu'il est facile de tricher sur le nombre de visiteurs je signale qu'il ne faut pas oublier que Google a plusieurs milliers d'employés. Je ne pense pas qu'ils sont payés pour regarder voler les mouches.

Code:
<!-- script google analytics -->
<script src="http://monsite.fr/urchin.js" type="text/javascript"></script>
<script type="text/javascript"> _uacct = "le numero d'user account"; urchinTracker(); </script> 
<!-- fin script google -->
1 visite = 1 visite

Code:
<!-- script google analytics -->
<script src="http://monsite.fr/urchin.js" type="text/javascript"></script>
<script type="text/javascript"> _uacct = "le numero d'user account"; urchinTracker(); </script> 
<script type="text/javascript"> _uacct = "le numero d'user account"; urchinTracker(); </script> 
<!-- fin script google -->
1 visite = 2 visites

Je continue ?
 
WRInaute discret
Track des clics sur les résultats, Google Analytics, Google Adsense, sans oublier la GoogleBar/espion... ça fait déjà quelques pistes pour avoir une idée relativement précise des fréquentations. Et nous n'avons peut-être pas pensé à toutes les sources dont Google peut disposer.

Aucune de ces sources, sans doute, n'est tout à fait fiable. Mais imaginez ce qu'une équipe de statisticiens doués peut tirer du croisement de ces données !

Et je rejoins Orvinfait sur l'idée qu'il n'y a pas de meilleure mesure que la fréquentation pour déterminer si un site mérite une bonne place dans les résultats de recherche.

Le nombre de visites n'est peut-être pas suffisant, mais si on y ajoute le temps passé sur chaque page et le nombre de pages consultées par les visiteurs, on commence à avoir une idée bigrement précise de la qualité que les visiteurs attribuent au site visité !
 
WRInaute discret
juste ue question....

si le webmaster nutilise ni adwords, ni adsence ni aucun outil de GG....

alors GG se baserait sur quoi?
 
WRInaute occasionnel
c-cool a dit:
juste ue question....

si le webmaster nutilise ni adwords, ni adsence ni aucun outil de GG....

alors GG se baserait sur quoi?

Rien, le site serait au fin fond des résultats, obligeant le webmaster à utiliser l'un ou l'autre outil.
ça fait un peu big brother, j'espère qu'on n'en viendra pas là.
 
WRInaute discret
Jaunalgi a dit:
c-cool a dit:
juste ue question....

si le webmaster nutilise ni adwords, ni adsence ni aucun outil de GG....

alors GG se baserait sur quoi?

Rien, le site serait au fin fond des résultats, obligeant le webmaster à utiliser l'un ou l'autre outil.
ça fait un peu big brother, j'espère qu'on n'en viendra pas là.

pas tres claire lhistoire....
jai et jai eu des site en premiere page...sans ne jamais avoir utiliser aucun produit de GG...a si quand meme...jai la toolbar....mais je ne pense pas que GG puisse se baser sur mes visites des mes propres site...... :arrow: :?:
 
WRInaute discret
c-cool a dit:
juste ue question....

si le webmaster nutilise ni adwords, ni adsence ni aucun outil de GG....

alors GG se baserait sur quoi?

--->
zapman a dit:
Track des clics sur les résultats, ...., sans oublier la GoogleBar/espion.... Et nous n'avons peut-être pas pensé à toutes les sources dont Google peut disposer.
Tu n'es pas le seul à avoir une GoogleBar. Un bon nombre de tes visiteurs en ont aussi !
 
WRInaute accro
Je crois qu'il faut se calmer un peu.

Si il était prouvé que Google utilise les données de services externes (GoogleBar, AdSense, Analytics etc...) pour effectuer le classement des pages, je pense qu'il y aurait un assez gros scandale en vue :D. A mon avis, Google ne s'amuserait pas à ça.
D'autre part, toujours si le fait existait et devenait connu, je ne sais pas si cela serait plus pertinent que la méthode actuelle. La tricherie serait toujours possible (vous connaissez Alexa Booster : un soft qui fait tourner une ou plusieurs pages en passant par un proxy différent à chaque fois), et comme cela a été dit, pour une requête donnée, ce n'est pas forcément le site le plus visité qui est le plus pertinent.

Par contre, comme l'a écrit Malaiac, le tracking sur les clics sur les SERPs va dans ce sens, mais c'est tout à fait normal, et cela reste(ra) un critère parmis tant d'autres.
 
WRInaute passionné
GG n'est pas forcément obligé d'utiliser ses outils externes. il peut simplement faire des stats par rapport à son moteur de recherche. Cela est un complément pour algo de classement tout comme peuvent l'être ses outils externes
 
WRInaute occasionnel
orvinfait a dit:
Les statistiques sur les produits Google permettent de cerner le comportement des visiteurs et d'en déduire quels sont les critères permettant de mieux classer les sites. Cela permet de faire évoluer le classement de tous les sites même ceux qui <<n'utilisent pas les services de Google>>.

Je mets cela entre guillemets car il ne doit pas avoir beaucoup de sites qui ne reçoivent pas de visiteurs de Google ou de sites utilisant Adsense. Donc Google peut avoir des statistiques, plus ou moins complètes, sur tous les sites.

Ceci étant, il est assez facile d'augmenter les visiteurs. Cela ferait une nouvelle manière supplémentaire de tricher alors que GG a déjà du mal avec pas mal de techniques, est-ce une bonne chose?
Du point de vue de la pertinence d'un éventuel système comportant, à un coefficient plus ou moins élevé, les visites des sites, ça se défent, maintenant, c'est aussi largement critiquable. Un site qui a beaucoup de visites n'est pas forcément pertinent et l'inverse est également vrai.
 
WRInaute passionné
Le positionnement fait le trafic, pas l'inverse.

Le propre des moteurs de recherche est de proposer les sources d'information pertinentes et de les populariser. Les sites web populaires (au sens de fréquentés), qui font du traffic sur leur seule notoriété n'ont pas besoin de Google. Les utilisateurs n'ont pas besoin de Google pour les trouver.
Le lien entre fréquentation et pertinence est beaucoup trop indirect pour être un critère de classement. Par ailleurs, il entrainerai les algorithme de classement dans des spirales autoentretenues qui aboutirait à des résultats absurdes : fréquenté --> donc pertinent --> donc bien positionné --> donc bien fréquenté...
 
WRInaute passionné
Ne te vexe pas. J'essaie de te montrer poliment que tu cherches dans la mauvaise direction.
Maintenant profite de l'information qui veut. ;)
 
WRInaute accro
orvinfait a dit:
Comme annoncé vous trouverez à http://www.orvinfait.fr/positionnement_ ... teurs.html un article basé sur mes statistiques et permettant de voir comment Google régule le nombre de visiteurs qu'il envoie vers un site.

ouais... ben du grand n'importe quoi

tu n'as pas pensé que si tes visites grimpaient, c aussi parce qu'il pouvait y avoir un entrain général du Web ? en gros y'a plus de visiteurs maintenant qu'avant... et donc + de requetes sur Google... et donc le % reste le meme
 
WRInaute accro
jeroen a dit:
Du grand n'importe quoi.


mais non, mais non, c'est même carrément débile.

Utilise adsence et analytic sur 2 sites et les 2 ont subis bigdady .... D'autres qui n'utilisent ni l'un ni l'autre ont monté ou descendu ...

Probablement que GG enregistre tous ces paramètres (peut-être à mettre en relation avec les désindexation des site's et le bruit de problèmes techniques de GG mais c'est une théorie sans réels fondements)

Chaque fois qu'un site monte ou descend, chacun essaye de trouver une réponse. Ca doit juste être l'algirythme qui est modifié. Sans plus.

Pour les 50 % de GG :lol: :lol: :lol: faudra apprendre à référencer alorsz (ou c'est moi qui comprend rien à MSN :cry: ). Certain petits sites que je suis font plus de 95 % de visiteurs via GG ...(tous compris) même quand ils sont bien placés sur les autres moteurs de recherche. Là aussi, théorie sans fondements.
 
WRInaute discret
ybet a dit:
Pour les 50 % de GG :lol: :lol: :lol: faudra apprendre à référencer alorsz (ou c'est moi qui comprend rien à MSN :cry: ). Certain petits sites que je suis font plus de 95 % de visiteurs via GG ...(tous compris) même quand ils sont bien placés sur les autres moteurs de recherche. Là aussi, théorie sans fondements.
Veux-tu dire que les petits sites dont tu parles n'ont pas plus de 5% de visiteurs en direct ?
Les questions intéressantes pour valider ou critiquer le théorie d'Orvinfait sont :
- quel est le pourcentage de visiteurs apportés par Google par rapport au nombre total de visiteurs.
- quelle est la variation de ce pourcentage ou cours du temps.
 
WRInaute accro
zapman a dit:
Track des clics sur les résultats, Google Analytics, Google Adsense, sans oublier la GoogleBar/espion... ça fait déjà quelques pistes pour avoir une idée relativement précise des fréquentations. Et nous n'avons peut-être pas pensé à toutes les sources dont Google peut disposer.

Aucune de ces sources, sans doute, n'est tout à fait fiable. Mais imaginez ce qu'une équipe de statisticiens doués peut tirer du croisement de ces données !

Et je rejoins Orvinfait sur l'idée qu'il n'y a pas de meilleure mesure que la fréquentation pour déterminer si un site mérite une bonne place dans les résultats de recherche.

Le nombre de visites n'est peut-être pas suffisant, mais si on y ajoute le temps passé sur chaque page et le nombre de pages consultées par les visiteurs, on commence à avoir une idée bigrement précise de la qualité que les visiteurs attribuent au site visité !
Je rejoins complètement ton analyse zapman (encore :roll: ) et en partie celle d'Orvinfait ...

je pense également que le traffic est un bien meilleur indice de popularité que le PR (google n'est pas le seul canal marketting) ... après tout les BL si chers à Google ne sont à l'origine pas destinés à transporter du PR mais bel et bien du traffic ... :wink:

Ces derniers mois Google n'a pas ménagé ses efforts pour développer des moyens de mesure de la popularité réelle des sites et a surtout instrumenté son moteur (instrumentation déjà mise à profit dans le pulling Google par certains SEO) ...

cela fait qq temps que je suis convaincue que toutes ces informations, habilement recoupées (comme tu le suggère) permettent à Google de construire une sorte de notation globale sur le domaine (et non page par page comme le PR) et déboucher sur une espèce d'indice de confiance permettant de pondérer les résultats de l'ensemble des pages du domaine ...
 
WRInaute accro
Tes stats sont bonnes, mais moins d'un an pour faire des stats c'est court : lancement, reférencement, sandbox, saison, sujet, vacances, indisponibilité de l'hébergeur... Tu n'as pas encore profité du bonus de nom de domaine de plus d'un an (il doppe bien les stats)

cendrillon : oui on arrive au "trustrank" avec un indice de confiance par site et pas par page. Mais la confiance accordée par une grosse fréquentation n'a rien à voir avec la qualité sinon on peut tous dopper nos stats de fréquentation par visionneuses ou autres systemes avec ou sans anonymizer...

+2
Le positionnement fait le trafic, pas l'inverse.
 
WRInaute accro
orvinfait a dit:
Zim' a dit:
Tu vois un rapport entre la pertinence d'une page et son nombre de visiteur?
Il me semble aujourd'hui meilleur qu'un rapport entre nombre de liens et pertinence. Pour avancer il est utile de se baser sur des faits. Je me base sur l'observation de mes statistiques. Je sais que cela n'est pas suffisant mais en observant nos statistiques nous pouvons, ensemble y voir plus clair. Le nombre de pages vues de mon site contenant une publicité est supérieur à 400 000 par mois ce qui donne une bonne base d'observation, même si elle n'est pas suffisante.

Le web serait franchement tordu si tu avais fait l'algo de Google, toi...
Au plus un site est visité, au mieux il doit être positionné ? :?
 
WRInaute accro
Si les moteurs voulaient faire plus clair et juste, ils devraient livrer leurs résultats avec des boutons-radio :
- classement par ancienneté;
- classement par fréquentation;
- ...

S'ils ne le font pas, ce n'est pas pour des raisons techniques, c'est pour entretenir le stress chez les webmasters.

C'est clair que un seul classement établi selon une recette mystérieuse ouvre la porte à tous les fantasmes ... c'est la part de rêve que Google nous donne :)
 
WRInaute accro
orvinfait a dit:
Plus un site est visité et plus il monte dans le positionnement n'est-ce pas un argument de poids pour vendre des Adwords ?

Modèle valable pour un site qui fait 30 PV/jour dont 25 sont du SEM, 4 sont le site owner, et 1 est organique.

Dans le reste des cas, ton raisonnement est biaisé... Google AdWords est justement une solution qui permet à ceux qui ne sont pas capables* de positionner un site d'avoir du trafic "moteurs" (mais payant).

* attention, je ne dénigre pas, le SEO c'est un art et l'art, à l'instar de la technique, ça ne s'apprend pas ;)
 
WRInaute impliqué
Szarah a dit:
S'ils ne le font pas, ce n'est pas pour des raisons techniques, c'est pour entretenir le stress chez les webmasters.
Je dirait plutot que c'est pour grarantir leur pertinance :)

Szarah a dit:
C'est clair que un seul classement établi selon une recette mystérieuse ouvre la porte à tous les fantasmes ... c'est la part de rêve que Google nous donne :)
...et ce qui rend le référencement si prenant ;)
 
WRInaute accro
Bin ils pourraient mettre un radio-bouton avec le choix

- Classement par pertinence selon Google

Pour l'instant, on n'a que ça et c'est ... nébuleux, disons :)
 
WRInaute accro
Thierry Bugs a dit:
cendrillon : oui on arrive au "trustrank" avec un indice de confiance par site et pas par page.
tout à fait thierry ... :lol:

Thierry Bugs a dit:
Mais la confiance accordée par une grosse fréquentation n'a rien à voir avec la qualité ...
mais qu'est ce que la qualité d'un site, qui est à même d'en juger et sur quels critères ? ses caractéristiques techniques ? son optimisation/nombre de BL ? ou le fait qu'il réponde aux attentes du plus grand nombre d'utilisateurs ?

Thierry Bugs a dit:
sinon on peut tous dopper nos stats de fréquentation par visionneuses ou autres systemes avec ou sans anonymizer...
tu ne crois pas que la méthode actuelle de détermination de la popularité d'un site à base de BL soient déjà bien faussée ? le moteur dispose aujourd'hui de suffisament de sources d'informations (cités plus haut) pour détecter ce genre d'artifices et des algorithmes déjà déjà bien éprouvés pour les Adwords ...

Thierry Bugs a dit:
+2
Le positionnement fait le trafic, pas l'inverse.
le problème du positionnement est qu'il est basé sur une modélisation du Web largement faussée par le spam ... et comme pour toute modélisation de systèmes complexes, il devient nécessaire de recaler le modèle sur la réalité par des mesures ... c'est à mon avis ce que Google commence à faire ...

Alors Orvinfait a focalisé sur les Adwords, et c'est là que je ne le suis plus, je pense que les Adwords ne sont qu'un des points de mesure, et à mon avis pas le plus important ... :wink:
 
WRInaute accro
orvinfait, si c'est uniquement pour faire de l'auto-promotion je ne vois pas l'intérêt de participer à un forum "référencement"... Il y'a certainement des forums "publicité" qui doivent exister.

Nous sortir le 17 mai 2006 un article sur Google Sitemaps c'est que:

- soit t'es ailleurs...
- soit tu te moques de nous...

NB: Pour influencer ton référencement, commence par utiliser des tirets à la place des underscore dans tes uri ;)
 
WRInaute accro
biddybulle a dit:
oui mais cela ne l influence pas sur msn, as tu une soluce hawk

J'essaye de limiter à 2 tirets par URI, et de dissocier avec d'autres séparateurs.

Pour l'instant, je dissocie principalement avec la virgule, mais le point est un séparateur également.

Il y'a plusieurs mois, on avait posté ici une page indiquant ce qui est séparateur et ce qui ne l'est pas ( |, /, +, ~, {}, [], etc... ?), le premier qui trouve gagne un bonbon ;)
 
WRInaute passionné
orvinfait a dit:
Un forum c'est fait pour partager mais s'il n'est pas possible d'être entendu mes interventions ne servent à rien donc j'irai voir ailleurs.

Faut pas s'emballer. Il ne faut pas confondre être entendu et convaincre. Je ne suis pas convaincu. Introduire le trafic (transmis au site ou même le trafic du site dans sa globalité, si tant est que Google puisses l'évaluer) dans l'algorithme de classement produirait AMHA des effets pervers auto-entretenus qui rendraient rapidement les résultats aberrants.

D'autres disent que Google valide son algorithme en mesurant le comportement des internautes sur les sites vers lesquels ils les renvoie. Je dis pourquoi pas, même si je ne perçois pas quels seraient les enseignements de telles mesures.
 
WRInaute accro
MagicYoyo a dit:
Introduire le trafic (transmis au site ou même le trafic du site dans sa globalité, si tant est que Google puisses l'évaluer) dans l'algorithme de classement produirait AMHA des effets pervers auto-entretenus qui rendraient rapidement les résultats aberrants.
encore une fois, qu'est ce qu'un résultat aberrants ? pour moi ce pourrait être un résultat déterminé comme pertinent par un algorithme et qu'un nombre important d'internautes rejetteraient ... et toi ?

MagicYoyo a dit:
D'autres disent que Google valide son algorithme en mesurant le comportement des internautes sur les sites vers lesquels ils les renvoie. Je dis pourquoi pas, même si je ne perçois pas quels seraient les enseignements de telles mesures.
je n'ai pas dit "valide" mais "recale" (google est ton ami, non ?)...ce n'est pas tout à fait la même chose ... :lol:
alors, prenons un exemple simple : tu es l'un des heureux franchisés d'une enseigne de magasins de bonbons (si si) ... :lol:

Les grand spécialistes du marketting du franchiseur, connaissent parfaitement les produits, le marché et les attentes de tes clients (bien sûr) ... les commerciaux leur ont proposé plein de bonbons de toutes les formes, toutes les couleurs et tous les goûts ... ils ont entré toutes ces informations dans leur "algorithme", et pas de doutes les choix pertinents sont : le bonbon A, C et D ...

les jours passent et tu ne vends rien ou presque ... pourtant tous les jours des centaines de chérubins entre dans ta boutique, mais ils ne te demandent que le bonbon B (celui là même que les spécialistes n'ont pas retenu) ... que fais tu ? :lol:

personnellement, j'irais les voir et je leur "recalerais" le modèle ... :lol:
 
WRInaute accro
orvinfait a dit:
Par contre si j'ai raison, ce que bien sûr je pense, cela signifie que tous ceux qui référencent des sites ou qui créent des sites avec les anciennes méthodes de référencement vont droit à l'échec. A partir du moment où ces méthodes sont portées par une large majorité d'acteurs professionnels à savoir les référenceurs et ceux qui créent des sites pour les autres, il se profile à l'horizon le discrédit de ces métiers. A l'avenir il vaudra donc mieux s'abstenir de faire un site en faisant appel à eux. Je pense que cela est dommage. Je pense qu'ils ont un rôle important à jouer à condition de se remettre en question.
Je n'ai pas tout compris : dans le cas où le trafic serait prépondérant pour le positionnement (ce que je ne pense pas), comment tu veux optimiser le référencement ? En utilisant des méthodes alternatives de communication ? Parce que ce qui référencent "à l'ancienne" le font aussi...

Bref je n'ai pas tout saisi :roll: (fatiqué mwa ^^).
 
WRInaute passionné
il est évident que le traffic via les outils google ou le moteur lui même a un rôle à jouer dans le positionnement mais la question est à quel niveau de % ?
 
WRInaute accro
biddybulle a dit:
il est évident que le traffic via les outils google ou le moteur lui même a un rôle à jouer dans le positionnement
Il ne me semble pas si évident que ça que Google utilise les stats Analytics ou AdSense dans son algorithme.
Par contre, pour le tracking sur les résultats, on est d'accord.
 
WRInaute accro
orvinfait a dit:
Par contre si j'ai raison, ce que bien sûr je pense, cela signifie que tous ceux qui référencent des sites ou qui créent des sites avec les anciennes méthodes de référencement vont droit à l'échec. A partir du moment où ces méthodes sont portées par une large majorité d'acteurs professionnels à savoir les référenceurs et ceux qui créent des sites pour les autres, il se profile à l'horizon le discrédit de ces métiers. A l'avenir il vaudra donc mieux s'abstenir de faire un site en faisant appel à eux. Je pense que cela est dommage. Je pense qu'ils ont un rôle important à jouer à condition de se remettre en question.
là par contre je pense que tu t'égare ... même si nous sommes qq uns (et unes) à croire que les informations sur la nature et le volume de traffic dont dispose Google peuvent effectivement influer sur le positionnement des pages d'un site (au point qu'une méthode d'optimisation appelée pulling Google a déjà vu le jour, et que certains pense même que cela peut être un outil pour sortir un site de SandBox) ... je ne crois pas que qui que se soit te suive lorsque tu dis que cela rend caduque les méthodes actuelles de positionnement de pages ...

spidetra a dit:
perso :
- je change de franchise
transposé au net, cela voudrait dire que tu change de moteur ? :lol:
(bon, c'est clair que mon exemple n'est pas idéal, mais ce n'est pas facile d'expliquer à quoi sert le recalage d'un modèle simplement non plus)
 
WRInaute passionné
Cendrillon a dit:
encore une fois, qu'est ce qu'un résultat aberrants ? pour moi ce pourrait être un résultat déterminé comme pertinent par un algorithme et qu'un nombre important d'internautes rejetteraient ... et toi ?

J'employais le mot dans un sens statistique... peut être à tord. Mon propos est de dire qu'intégrer le trafic dans l'algo de positionement induis un cercle vicieux/auto-entretenu. A savoir qu'un site qui est bien classé reçoit du trafic --> il est alors jugé comme populaire donc pertinent --> il est encore mieux classé --> il reçoit encore plus de traffic... et ainsi de suite.
On aboutit à des classements figés où les premiers et les plus gros sont indéboulonnables. Je regrette déjà que les classements de Google prennent déjà cette tournure là du fait même de l'inclusion de la popularité mesurée en termes de liens. Heureusement le SEO/spam est là pour permettre à d'autres sites d'emmerger !
Introduire encore plus directement la popularité (par la mesure du trafic) rendrait encore plus violent ce "travers" de l'algorithme. Les moteurs de recherche ont pour effet de concentrer le trafic sur les plus "gros" sites, pitié, n'en rajoutons pas.

En revanche, la participation des utilisateurs dans l'évaluation des résultats (comme avec Google Suggest) me parait plus prometteuse... même si l'expérience menée ici même n'est pas très rassurante. :roll:

Cendrillon a dit:
Alors, prenons un exemple simple : tu es l'un des heureux franchisés d'une enseigne de magasins de bonbons (si si) ... :lol:
J'essaie raisonner le moins possible par analogies. Ce sont des raisonnements qui peuvent se rébvéler factices au point d'amener à des conclusions erronées voire absurdes. ;)
 
WRInaute accro
MagicYoyo a dit:
J'employais le mot dans un sens statistique... peut être à tord. Mon propos est de dire qu'intégrer le trafic dans l'algo de positionement induis un cercle vicieux/auto-entretenu. A savoir qu'un site qui est bien classé reçoit du trafic --> il est alors jugé comme populaire donc pertinent --> il est encore mieux classé --> il reçoit encore plus de traffic... et ainsi de suite.
On aboutit à des classements figés où les premiers et les plus gros sont indéboulonnables. Je regrette déjà que les classements de Google prennent déjà cette tournure là du fait même de l'inclusion de la popularité mesurée en termes de liens. Heureusement le SEO/spam est là pour permettre à d'autres sites d'emmerger !
Introduire encore plus directement la popularité (par la mesure du trafic) rendrait encore plus violent ce "travers" de l'algorithme. Les moteurs de recherche ont pour effet de concentrer le trafic sur les plus "gros" sites, pitié, n'en rajoutons pas.
au contraire, c'est dans la situation actuelle que les résultats sont squatés par les "gros sites" ... comment veux tu qu'un nouveau site (même très innovant) puisse emmerger au millieu de sites qui sont là depuis plusieurs années et ont accumulé plusieurs centaines de milliers de pages, parfois autant (voire plus) de BL et un PR 6 ou 7 ? c'est quasi impossible sur des mots clés concurrentiels ...

désolée pour l'analogie, mais c'est un peu pareil dans d'autres domaines comme la musique, le cinema ou encore la technologie où il faut parfois contourner le système et imposer son succès pour qu'il soit intégré au système ...

enfin et pour illustrer le tout ... ne trouves tu pas étonnant que sur une requete à 76 600 000 réponses, ce soit un site très peu optimisé qui n'a "que" 2340 pages, "que" 756 BL et un "petit" PR5 qui arrive en tête des résultats (et trust même la première place) ?
 
WRInaute passionné
Cendrillon a dit:
au contraire, c'est dans la situation actuelle que les résultats sont squatés par les "gros sites" ... comment veux tu qu'un nouveau site (même très innovant) puisse emmerger au millieu de sites qui sont là depuis plusieurs années et ont accumulé plusieurs centaines de milliers de pages, parfois autant (voire plus) de BL et un PR 6 ou 7 ? c'est quasi impossible sur des mots clés concurrentiels ...

Les tendances de demain naissent à la marge aujourd'hui. Les webmasters, en tant qu'internautes experts popularisent les tendances que le grand public adoptera (ou pas). Je crois plus à des possibilités d'émergences de nouveaux sites avec une popularité basée sur les BL que sur le trafic.

Cendrillon a dit:
désolée pour l'analogie, mais c'est un peu pareil dans d'autres domaines comme la musique, le cinema ou encore la technologie où il faut parfois contourner le système et imposer son succès pour qu'il soit intégré au système ...
Je vois pas bien où tu veux en venir.

Cendrillon a dit:
enfin et pour illustrer le tout ... ne trouves tu pas étonnant que sur une requete à 76 600 000 réponses, ce soit un site très peu optimisé qui n'a "que" 2340 pages, "que" 756 BL et un "petit" PR5 qui arrive en tête des résultats (et trust même la première place) ?
Euh... je dois pas avoir les mêmes résultats que toi, ou j'ai pas compris ton exemple.
 
WRInaute passionné
spidetra a dit:
Eugene Ionesco - La Cantatrice Chauve a dit:
Prenez un cercle, caressez-le, il deviendra vicieux !
Toute tentative de ranking engendre des cercles qui deviennent vicieux !
C'est vrai que l'algo soit basé sur le PR ou sur des techniques comportementales.

=> pb de recalage des algos ( Cendrillon, Orvinfait ).

Ces algos de recalages feront apparaître de nouveaux cercles qui, sous les carresses des spammeurs - je voulais dire référenceur :wink: - deviendront vicieux à leurs tours.

Oui, je suis assez d'accord avec ça. Les mesures de popularité basées sur le trafic me semblent moins spammables que les BL. Mais il me semblent aussi introduire un biais.
 
WRInaute passionné
orvinfait a dit:
NON! regarde l'analyse de mes statistiques que j'ai faite. Si j'ai bien analysé, Google envoie du Trafic en pourcentage du nombre des visiteurs réels. Si le nombre de tes fidèles visiteurs diminue, le pourcentage de nombre diminue aussi et donc ton classement. Le classement dépend finalement de la satisfaction des visiteurs. C'est vrai que ton site soit petit ou gros. Un gros site peut donc plonger et un petit monter.

Je vais être direct. Pour moi, tes statistiques ne sont pas probantes.
Comment isole-tu les facteurs liés à la qualité du référencement de ton site ?
Prends-tu en compte les mises à jour de ton contenu ? L'actualité qui peut sur-exposer ponctuellement un thème ?
La baisse de fréquentation que tu observes me parait plus comme un désintérêt ponctuel des internautes pour le thème de ton site. Il est donc logique qu'elle s'observe sur tous les moteurs et que la part de chacun reste stable, non ? C'est une explication qui me paraît beaucoup plus probablequ'un réajustement en temps réel de Google du nombre de visiteurs qu'il t'envoie pour rester sur une "part de marché" stable.
 
WRInaute accro
MagicYoyo a dit:
Les tendances de demain naissent à la marge aujourd'hui. Les webmasters, en tant qu'internautes experts popularisent les tendances que le grand public adoptera (ou pas).
je crains que tu ne donne au webmasters bien plus de pouvoir qu'ils n'en ont réellement ... le net est maintenant un medium que les internautes utilisent et consomment en fonction de leurs besoins, et c'est aux acteurs du web (webmasters, moteurs, ...) d'apréhender ces besoins au plus tôt et d'y répondre (et non l'inverse) , s'ils veulent survivre ... :lol:

MagicYoyo a dit:
Je crois plus à des possibilités d'émergences de nouveaux sites avec une popularité basée sur les BL que sur le trafic.
je serais d'accord avec toi si les BL servaient encore à transporter du traffic, mais voila, cela fait bien longtemps que les BL ne servent quasiment plus qu'à transporter du PR ... par ailleurs il me semblerait plus logique que ce soit la popularité qui rapporte des BLs et non l'inverse ... :wink:

et c'est bien le problème actuel des moteurs de recherche (et l'une des raisons du déploiement de bigdaddy) ... le PR d'un site ne veut déjà plus dire grand chose, et la grande majorité des BL sont aujourd'hui en grandes majorité destinés à "fausser" les algos des moteurs ... alors peut être qu'il y a qq années (et faute de mieux) les BL étaient suffisant pour évaluer la popularité d'un site ... mais aujourd'hui, il me semble que ce n'est plus le cas, ce qui explique que les moteurs cherche à instrumenter leurs outils pour, d'une part essayer de vérifier que les pages présentées dans les SERP répondent bien aux attentes des utilisateurs (voir les qq stats sur le sujet que veut bien te motrer Google dans tes sitemap), et d'autre part que le traffic des sites est bien conforme (en volume et en qualité de la visite) à l'importance que lui accorde le moteur ... :wink:
 
WRInaute discret
MagicYoyo a dit:
Les tendances de demain naissent à la marge aujourd'hui. Les webmasters, en tant qu'internautes experts popularisent les tendances que le grand public adoptera (ou pas). Je crois plus à des possibilités d'émergences de nouveaux sites avec une popularité basée sur les BL que sur le trafic.

Le problème qui est posé est en fait l'émergence de nouveaux sites. Pour les anciens les internautes ont pu donner une valeur par leur audience qu'ils accordent au site. Les nouveaux sites répondent-ils mieux que les anciens sur les mots clés qu'ils contiennent. Si suivant les algos de Google une page a la même pertinence au niveau de l'analyse de son contenu que des pages de sites plus anciens lequel placer en premier? Pour Google la réponse est évidente et vous l'avez constaté sur Wri. Il place le nouveau site en avant et le vote des internautes (par la fidélisation ou/et la communication de l'adresse du site) permet de lui donner une position dans le classement. Si le site attire un grand nombre d'internautes parce qu'il bien meilleur que tous les sites anciens il demeurera en première place sinon il descendra plus ou moins.

Avec ce système pas besoin d'attendre que des webmasters veillent bien mettre des liens vers ce site pour le voir émerger. Il sera en tête du classement dès le départ.

Si Google ne tire pas un enseignement de la mise en avant des nouveaux sites et des nouvelles pages (probablement mais je n'ai rien vu à ce sujet et je ne regarde pas la position de mes pages dans Google) pourquoi le ferait-il? Avec la théorie du positionnement en fonction du nombre de visiteurs cela s'explique avec d'autres théories cela s'explique-t-il aussi bien?
 
WRInaute accro
Orvinfait a dit:
Il place le nouveau site en avant et le vote des internautes (par la fidélisation ou/et la communication de l'adresse du site) permet de lui donner une position dans le classement. Si le site attire un grand nombre d'internautes parce qu'il bien meilleur que tous les sites anciens il demeurera en première place sinon il descendra plus ou moins.
Cela me paraît raisonnable comme démarche.
En conséquence, il serait judicieux de ne lancer un nouveau site que s'il est parfaitement équipé pour profiter de la mise en évidence dont il va brièvement disposer.
Et cela modifie les stratégies, effectivement.
 
WRInaute accro
Suite à la lecture de l'article d'Olivier sur "ces sites ayant la chance d'avoir des liens supplémentaires dans Google" ... il me semble que ce pourrait être une excellente illustration de l'utilisation des données évoquées par zapman :

zapman a dit:
Track des clics sur les résultats, Google Analytics, Google Adsense, sans oublier la GoogleBar/espion... ça fait déjà quelques pistes pour avoir une idée relativement précise des fréquentations. Et nous n'avons peut-être pas pensé à toutes les sources dont Google peut disposer.

Aucune de ces sources, sans doute, n'est tout à fait fiable. Mais imaginez ce qu'une équipe de statisticiens doués peut tirer du croisement de ces données !

Et je rejoins Orvinfait sur l'idée qu'il n'y a pas de meilleure mesure que la fréquentation pour déterminer si un site mérite une bonne place dans les résultats de recherche.

Le nombre de visites n'est peut-être pas suffisant, mais si on y ajoute le temps passé sur chaque page et le nombre de pages consultées par les visiteurs, on commence à avoir une idée bigrement précise de la qualité que les visiteurs attribuent au site visité !
et pourrait tout à fait être une des applications de ce que j'évoquais ici :

Cendrillon a dit:
Ces derniers mois Google n'a pas ménagé ses efforts pour développer des moyens de mesure de la popularité réelle des sites et a surtout instrumenté son moteur (instrumentation déjà mise à profit dans le pulling Google par certains SEO) ...

cela fait qq temps que je suis convaincue que toutes ces informations, habilement recoupées (comme tu le suggère) permettent à Google de construire une sorte de notation globale sur le domaine (et non page par page comme le PR) et déboucher sur une espèce d'indice de confiance permettant de pondérer les résultats de l'ensemble des pages du domaine ...
 
WRInaute accro
Très intéressant... A suivre :).

(par contre, pour "le fait d'avoir des liens supplémentaires dans Google", j'ai l'impression que l'ancienneté y joue énormément)
 
Nouveau WRInaute
orvinfait a dit:
Si mon analyse est exacte cette révolution entraîne des bouleversements dans le classement des sites sur Google et ce mode de référencement donne un net avantage à Google par rapport à ses concurrents.
Pour lire la suite de l'article et connaître mon analyse : http://www.orvinfait.fr/referencement_l ... ution.html
Pour en débattre après avoir lu l'article c'est ici.

Désolée de devoir l'écrire mais je n'ai rien trouvé de neuf sous ce lien sinon une société qui propose ses articles à la vente en n'affichant aucun prix et en laissant sous entendre que tout y est gratuit. Quand il faut s'inscrire et remplir un formulaire pour connaitre le prix de vente d'un article, j'assimile ça à un non respect du consommateur. Pour une révolution c'est une revolution. Je suis surtout révolté de m'être fait avoir. Je ne suis pas pour ce type de méthodes de vente (déguisées), donc je les dénonce. Désolé pour toi mais je préfère les choses claires et honnêtes.
 
WRInaute discret
montemarina a dit:
orvinfait a dit:
Si mon analyse est exacte cette révolution entraîne des bouleversements dans le classement des sites sur Google et ce mode de référencement donne un net avantage à Google par rapport à ses concurrents.
Pour lire la suite de l'article et connaître mon analyse : http://www.orvinfait.fr/referencement_l ... ution.html
Pour en débattre après avoir lu l'article c'est ici.

Désolée de devoir l'écrire mais je n'ai rien trouvé de neuf sous ce lien sinon une société qui propose ses articles à la vente en n'affichant aucun prix et en laissant sous entendre que tout y est gratuit. Quand il faut s'inscrire et remplir un formulaire pour connaitre le prix de vente d'un article, j'assimile ça à un non respect du consommateur. Pour une révolution c'est une revolution. Je suis surtout révolté de m'être fait avoir. Je ne suis pas pour ce type de méthodes de vente (déguisées), donc je les dénonce. Désolé pour toi mais je préfère les choses claires et honnêtes.
J'ai travaillé bénévolement pour une association de consommateurs pendant plusieurs années ce n'est pas pour aujourd'hui les arnaquer. Ce qui est payant est indiqué de même que ce qui est gratuit. La qualité des services gratuits que je propose peut surprendre mais ils sont gratuits mais tous ne sont pas gratuits et cela est expliqué ainsi que les tarifs sans que l'on est besoin de s'inscrire.
Comme nul n'est parfait j'ai peut-être raté une explication à un moment donné. Nous voyons cela par messagerie.
 
Nouveau WRInaute
La théorie de orvinfait est interessante. J'ai en effet observé un changement de comportement de google une fois que mon site a comporté de la pub adsense.
Le pourcentage amené par google a chuté, alors que pour les autres moteurs c'est resté stable.
Biensur, on peut dire que c'est une coincidence. Si la théorie est vraie, il faut répondre à ces questions :

- Pour quelle raison Google ferait-il ça ?
Google s'est orienté clairement vers la publicité. Difficile d'etre crédible pour la vente si le site qui affiche la publicité a 90% de ses visiteurs qui viennent de google. Ca serait un peu comme si les afficheurs détournaient les automobilistes pour les faires passer devant leurs panneaux.

- Quelle répartition google/autres, google estime-t-il raisonnable ?
Pour mon site il semble se stabiliser à 75% google, 25% autres. Auparavant il etait à 90% google.

- Est-ce réversible ?
Est-ce qu'en enlevant la pub Adsense le taux remonte ?

-Y'at-il une parade ?


Durant les semaines/mois prochains je vais effectuer des tests afin de voir comment Google réagit.

André
 
Discussions similaires
Haut