Pour être bien référencé il ne faut pas travailler sur la formule miracle permettant d'être premier dans un moteur mais sur la fréquentation d'un site.
legoufred a dit:Attention !!! une info exclusive !!! google vient de débaucher les marmottes qui taffaient pour Milka !!!
Et à partir de juin, ce sont les marmottes qui établiront les classements dans l'index de google !!!!
orvinfait a dit:Pour ceux qui croient qu'il est facile de tricher sur le nombre de visiteurs je signale qu'il ne faut pas oublier que Google a plusieurs milliers d'employés. Je ne pense pas qu'ils sont payés pour regarder voler les mouches.
<!-- script google analytics -->
<script src="http://monsite.fr/urchin.js" type="text/javascript"></script>
<script type="text/javascript"> _uacct = "le numero d'user account"; urchinTracker(); </script>
<!-- fin script google -->
<!-- script google analytics -->
<script src="http://monsite.fr/urchin.js" type="text/javascript"></script>
<script type="text/javascript"> _uacct = "le numero d'user account"; urchinTracker(); </script>
<script type="text/javascript"> _uacct = "le numero d'user account"; urchinTracker(); </script>
<!-- fin script google -->
c-cool a dit:juste ue question....
si le webmaster nutilise ni adwords, ni adsence ni aucun outil de GG....
alors GG se baserait sur quoi?
Jaunalgi a dit:c-cool a dit:juste ue question....
si le webmaster nutilise ni adwords, ni adsence ni aucun outil de GG....
alors GG se baserait sur quoi?
Rien, le site serait au fin fond des résultats, obligeant le webmaster à utiliser l'un ou l'autre outil.
ça fait un peu big brother, j'espère qu'on n'en viendra pas là.
c-cool a dit:juste ue question....
si le webmaster nutilise ni adwords, ni adsence ni aucun outil de GG....
alors GG se baserait sur quoi?
Tu n'es pas le seul à avoir une GoogleBar. Un bon nombre de tes visiteurs en ont aussi !zapman a dit:Track des clics sur les résultats, ...., sans oublier la GoogleBar/espion.... Et nous n'avons peut-être pas pensé à toutes les sources dont Google peut disposer.
orvinfait a dit:Les statistiques sur les produits Google permettent de cerner le comportement des visiteurs et d'en déduire quels sont les critères permettant de mieux classer les sites. Cela permet de faire évoluer le classement de tous les sites même ceux qui <<n'utilisent pas les services de Google>>.
Je mets cela entre guillemets car il ne doit pas avoir beaucoup de sites qui ne reçoivent pas de visiteurs de Google ou de sites utilisant Adsense. Donc Google peut avoir des statistiques, plus ou moins complètes, sur tous les sites.
orvinfait a dit:Comme annoncé vous trouverez à http://www.orvinfait.fr/positionnement_ ... teurs.html un article basé sur mes statistiques et permettant de voir comment Google régule le nombre de visiteurs qu'il envoie vers un site.
jeroen a dit:Du grand n'importe quoi.
Veux-tu dire que les petits sites dont tu parles n'ont pas plus de 5% de visiteurs en direct ?ybet a dit:Pour les 50 % de GG :lol: :lol: :lol: faudra apprendre à référencer alorsz (ou c'est moi qui comprend rien à MSN :cry: ). Certain petits sites que je suis font plus de 95 % de visiteurs via GG ...(tous compris) même quand ils sont bien placés sur les autres moteurs de recherche. Là aussi, théorie sans fondements.
Je rejoins complètement ton analyse zapman (encore :roll: ) et en partie celle d'Orvinfait ...zapman a dit:Track des clics sur les résultats, Google Analytics, Google Adsense, sans oublier la GoogleBar/espion... ça fait déjà quelques pistes pour avoir une idée relativement précise des fréquentations. Et nous n'avons peut-être pas pensé à toutes les sources dont Google peut disposer.
Aucune de ces sources, sans doute, n'est tout à fait fiable. Mais imaginez ce qu'une équipe de statisticiens doués peut tirer du croisement de ces données !
Et je rejoins Orvinfait sur l'idée qu'il n'y a pas de meilleure mesure que la fréquentation pour déterminer si un site mérite une bonne place dans les résultats de recherche.
Le nombre de visites n'est peut-être pas suffisant, mais si on y ajoute le temps passé sur chaque page et le nombre de pages consultées par les visiteurs, on commence à avoir une idée bigrement précise de la qualité que les visiteurs attribuent au site visité !
orvinfait a dit:Il me semble aujourd'hui meilleur qu'un rapport entre nombre de liens et pertinence. Pour avancer il est utile de se baser sur des faits. Je me base sur l'observation de mes statistiques. Je sais que cela n'est pas suffisant mais en observant nos statistiques nous pouvons, ensemble y voir plus clair. Le nombre de pages vues de mon site contenant une publicité est supérieur à 400 000 par mois ce qui donne une bonne base d'observation, même si elle n'est pas suffisante.Zim' a dit:Tu vois un rapport entre la pertinence d'une page et son nombre de visiteur?
orvinfait a dit:Plus un site est visité et plus il monte dans le positionnement n'est-ce pas un argument de poids pour vendre des Adwords ?
Je dirait plutot que c'est pour grarantir leur pertinanceSzarah a dit:S'ils ne le font pas, ce n'est pas pour des raisons techniques, c'est pour entretenir le stress chez les webmasters.
...et ce qui rend le référencement si prenantSzarah a dit:C'est clair que un seul classement établi selon une recette mystérieuse ouvre la porte à tous les fantasmes ... c'est la part de rêve que Google nous donne
tout à fait thierry ... :lol:Thierry Bugs a dit:cendrillon : oui on arrive au "trustrank" avec un indice de confiance par site et pas par page.
mais qu'est ce que la qualité d'un site, qui est à même d'en juger et sur quels critères ? ses caractéristiques techniques ? son optimisation/nombre de BL ? ou le fait qu'il réponde aux attentes du plus grand nombre d'utilisateurs ?Thierry Bugs a dit:Mais la confiance accordée par une grosse fréquentation n'a rien à voir avec la qualité ...
tu ne crois pas que la méthode actuelle de détermination de la popularité d'un site à base de BL soient déjà bien faussée ? le moteur dispose aujourd'hui de suffisament de sources d'informations (cités plus haut) pour détecter ce genre d'artifices et des algorithmes déjà déjà bien éprouvés pour les Adwords ...Thierry Bugs a dit:sinon on peut tous dopper nos stats de fréquentation par visionneuses ou autres systemes avec ou sans anonymizer...
le problème du positionnement est qu'il est basé sur une modélisation du Web largement faussée par le spam ... et comme pour toute modélisation de systèmes complexes, il devient nécessaire de recaler le modèle sur la réalité par des mesures ... c'est à mon avis ce que Google commence à faire ...Thierry Bugs a dit:+2
Le positionnement fait le trafic, pas l'inverse.
biddybulle a dit:oui mais cela ne l influence pas sur msn, as tu une soluce hawk
orvinfait a dit:Un forum c'est fait pour partager mais s'il n'est pas possible d'être entendu mes interventions ne servent à rien donc j'irai voir ailleurs.
encore une fois, qu'est ce qu'un résultat aberrants ? pour moi ce pourrait être un résultat déterminé comme pertinent par un algorithme et qu'un nombre important d'internautes rejetteraient ... et toi ?MagicYoyo a dit:Introduire le trafic (transmis au site ou même le trafic du site dans sa globalité, si tant est que Google puisses l'évaluer) dans l'algorithme de classement produirait AMHA des effets pervers auto-entretenus qui rendraient rapidement les résultats aberrants.
je n'ai pas dit "valide" mais "recale" (google est ton ami, non ?)...ce n'est pas tout à fait la même chose ... :lol:MagicYoyo a dit:D'autres disent que Google valide son algorithme en mesurant le comportement des internautes sur les sites vers lesquels ils les renvoie. Je dis pourquoi pas, même si je ne perçois pas quels seraient les enseignements de telles mesures.
Je n'ai pas tout compris : dans le cas où le trafic serait prépondérant pour le positionnement (ce que je ne pense pas), comment tu veux optimiser le référencement ? En utilisant des méthodes alternatives de communication ? Parce que ce qui référencent "à l'ancienne" le font aussi...orvinfait a dit:Par contre si j'ai raison, ce que bien sûr je pense, cela signifie que tous ceux qui référencent des sites ou qui créent des sites avec les anciennes méthodes de référencement vont droit à l'échec. A partir du moment où ces méthodes sont portées par une large majorité d'acteurs professionnels à savoir les référenceurs et ceux qui créent des sites pour les autres, il se profile à l'horizon le discrédit de ces métiers. A l'avenir il vaudra donc mieux s'abstenir de faire un site en faisant appel à eux. Je pense que cela est dommage. Je pense qu'ils ont un rôle important à jouer à condition de se remettre en question.
Il ne me semble pas si évident que ça que Google utilise les stats Analytics ou AdSense dans son algorithme.biddybulle a dit:il est évident que le traffic via les outils google ou le moteur lui même a un rôle à jouer dans le positionnement
là par contre je pense que tu t'égare ... même si nous sommes qq uns (et unes) à croire que les informations sur la nature et le volume de traffic dont dispose Google peuvent effectivement influer sur le positionnement des pages d'un site (au point qu'une méthode d'optimisation appelée pulling Google a déjà vu le jour, et que certains pense même que cela peut être un outil pour sortir un site de SandBox) ... je ne crois pas que qui que se soit te suive lorsque tu dis que cela rend caduque les méthodes actuelles de positionnement de pages ...orvinfait a dit:Par contre si j'ai raison, ce que bien sûr je pense, cela signifie que tous ceux qui référencent des sites ou qui créent des sites avec les anciennes méthodes de référencement vont droit à l'échec. A partir du moment où ces méthodes sont portées par une large majorité d'acteurs professionnels à savoir les référenceurs et ceux qui créent des sites pour les autres, il se profile à l'horizon le discrédit de ces métiers. A l'avenir il vaudra donc mieux s'abstenir de faire un site en faisant appel à eux. Je pense que cela est dommage. Je pense qu'ils ont un rôle important à jouer à condition de se remettre en question.
transposé au net, cela voudrait dire que tu change de moteur ? :lol:spidetra a dit:perso :
- je change de franchise
Cendrillon a dit:encore une fois, qu'est ce qu'un résultat aberrants ? pour moi ce pourrait être un résultat déterminé comme pertinent par un algorithme et qu'un nombre important d'internautes rejetteraient ... et toi ?
J'essaie raisonner le moins possible par analogies. Ce sont des raisonnements qui peuvent se rébvéler factices au point d'amener à des conclusions erronées voire absurdes.Cendrillon a dit:Alors, prenons un exemple simple : tu es l'un des heureux franchisés d'une enseigne de magasins de bonbons (si si) ... :lol:
au contraire, c'est dans la situation actuelle que les résultats sont squatés par les "gros sites" ... comment veux tu qu'un nouveau site (même très innovant) puisse emmerger au millieu de sites qui sont là depuis plusieurs années et ont accumulé plusieurs centaines de milliers de pages, parfois autant (voire plus) de BL et un PR 6 ou 7 ? c'est quasi impossible sur des mots clés concurrentiels ...MagicYoyo a dit:J'employais le mot dans un sens statistique... peut être à tord. Mon propos est de dire qu'intégrer le trafic dans l'algo de positionement induis un cercle vicieux/auto-entretenu. A savoir qu'un site qui est bien classé reçoit du trafic --> il est alors jugé comme populaire donc pertinent --> il est encore mieux classé --> il reçoit encore plus de traffic... et ainsi de suite.
On aboutit à des classements figés où les premiers et les plus gros sont indéboulonnables. Je regrette déjà que les classements de Google prennent déjà cette tournure là du fait même de l'inclusion de la popularité mesurée en termes de liens. Heureusement le SEO/spam est là pour permettre à d'autres sites d'emmerger !
Introduire encore plus directement la popularité (par la mesure du trafic) rendrait encore plus violent ce "travers" de l'algorithme. Les moteurs de recherche ont pour effet de concentrer le trafic sur les plus "gros" sites, pitié, n'en rajoutons pas.
Cendrillon a dit:au contraire, c'est dans la situation actuelle que les résultats sont squatés par les "gros sites" ... comment veux tu qu'un nouveau site (même très innovant) puisse emmerger au millieu de sites qui sont là depuis plusieurs années et ont accumulé plusieurs centaines de milliers de pages, parfois autant (voire plus) de BL et un PR 6 ou 7 ? c'est quasi impossible sur des mots clés concurrentiels ...
Je vois pas bien où tu veux en venir.Cendrillon a dit:désolée pour l'analogie, mais c'est un peu pareil dans d'autres domaines comme la musique, le cinema ou encore la technologie où il faut parfois contourner le système et imposer son succès pour qu'il soit intégré au système ...
Euh... je dois pas avoir les mêmes résultats que toi, ou j'ai pas compris ton exemple.Cendrillon a dit:enfin et pour illustrer le tout ... ne trouves tu pas étonnant que sur une requete à 76 600 000 réponses, ce soit un site très peu optimisé qui n'a "que" 2340 pages, "que" 756 BL et un "petit" PR5 qui arrive en tête des résultats (et trust même la première place) ?
spidetra a dit:Toute tentative de ranking engendre des cercles qui deviennent vicieux !Eugene Ionesco - La Cantatrice Chauve a dit:Prenez un cercle, caressez-le, il deviendra vicieux !
C'est vrai que l'algo soit basé sur le PR ou sur des techniques comportementales.
=> pb de recalage des algos ( Cendrillon, Orvinfait ).
Ces algos de recalages feront apparaître de nouveaux cercles qui, sous les carresses des spammeurs - je voulais dire référenceur :wink: - deviendront vicieux à leurs tours.
orvinfait a dit:NON! regarde l'analyse de mes statistiques que j'ai faite. Si j'ai bien analysé, Google envoie du Trafic en pourcentage du nombre des visiteurs réels. Si le nombre de tes fidèles visiteurs diminue, le pourcentage de nombre diminue aussi et donc ton classement. Le classement dépend finalement de la satisfaction des visiteurs. C'est vrai que ton site soit petit ou gros. Un gros site peut donc plonger et un petit monter.
je crains que tu ne donne au webmasters bien plus de pouvoir qu'ils n'en ont réellement ... le net est maintenant un medium que les internautes utilisent et consomment en fonction de leurs besoins, et c'est aux acteurs du web (webmasters, moteurs, ...) d'apréhender ces besoins au plus tôt et d'y répondre (et non l'inverse) , s'ils veulent survivre ... :lol:MagicYoyo a dit:Les tendances de demain naissent à la marge aujourd'hui. Les webmasters, en tant qu'internautes experts popularisent les tendances que le grand public adoptera (ou pas).
je serais d'accord avec toi si les BL servaient encore à transporter du traffic, mais voila, cela fait bien longtemps que les BL ne servent quasiment plus qu'à transporter du PR ... par ailleurs il me semblerait plus logique que ce soit la popularité qui rapporte des BLs et non l'inverse ... :wink:MagicYoyo a dit:Je crois plus à des possibilités d'émergences de nouveaux sites avec une popularité basée sur les BL que sur le trafic.
MagicYoyo a dit:Les tendances de demain naissent à la marge aujourd'hui. Les webmasters, en tant qu'internautes experts popularisent les tendances que le grand public adoptera (ou pas). Je crois plus à des possibilités d'émergences de nouveaux sites avec une popularité basée sur les BL que sur le trafic.
Cela me paraît raisonnable comme démarche.Orvinfait a dit:Il place le nouveau site en avant et le vote des internautes (par la fidélisation ou/et la communication de l'adresse du site) permet de lui donner une position dans le classement. Si le site attire un grand nombre d'internautes parce qu'il bien meilleur que tous les sites anciens il demeurera en première place sinon il descendra plus ou moins.
et pourrait tout à fait être une des applications de ce que j'évoquais ici :zapman a dit:Track des clics sur les résultats, Google Analytics, Google Adsense, sans oublier la GoogleBar/espion... ça fait déjà quelques pistes pour avoir une idée relativement précise des fréquentations. Et nous n'avons peut-être pas pensé à toutes les sources dont Google peut disposer.
Aucune de ces sources, sans doute, n'est tout à fait fiable. Mais imaginez ce qu'une équipe de statisticiens doués peut tirer du croisement de ces données !
Et je rejoins Orvinfait sur l'idée qu'il n'y a pas de meilleure mesure que la fréquentation pour déterminer si un site mérite une bonne place dans les résultats de recherche.
Le nombre de visites n'est peut-être pas suffisant, mais si on y ajoute le temps passé sur chaque page et le nombre de pages consultées par les visiteurs, on commence à avoir une idée bigrement précise de la qualité que les visiteurs attribuent au site visité !
Cendrillon a dit:Ces derniers mois Google n'a pas ménagé ses efforts pour développer des moyens de mesure de la popularité réelle des sites et a surtout instrumenté son moteur (instrumentation déjà mise à profit dans le pulling Google par certains SEO) ...
cela fait qq temps que je suis convaincue que toutes ces informations, habilement recoupées (comme tu le suggère) permettent à Google de construire une sorte de notation globale sur le domaine (et non page par page comme le PR) et déboucher sur une espèce d'indice de confiance permettant de pondérer les résultats de l'ensemble des pages du domaine ...
tout est dans tout ... et inversement ... :lol:wullon a dit:par contre, pour "le fait d'avoir des liens supplémentaires dans Google", j'ai l'impression que l'ancienneté y joue énormément
orvinfait a dit:Si mon analyse est exacte cette révolution entraîne des bouleversements dans le classement des sites sur Google et ce mode de référencement donne un net avantage à Google par rapport à ses concurrents.
Pour lire la suite de l'article et connaître mon analyse : http://www.orvinfait.fr/referencement_l ... ution.html
Pour en débattre après avoir lu l'article c'est ici.
J'ai travaillé bénévolement pour une association de consommateurs pendant plusieurs années ce n'est pas pour aujourd'hui les arnaquer. Ce qui est payant est indiqué de même que ce qui est gratuit. La qualité des services gratuits que je propose peut surprendre mais ils sont gratuits mais tous ne sont pas gratuits et cela est expliqué ainsi que les tarifs sans que l'on est besoin de s'inscrire.montemarina a dit:orvinfait a dit:Si mon analyse est exacte cette révolution entraîne des bouleversements dans le classement des sites sur Google et ce mode de référencement donne un net avantage à Google par rapport à ses concurrents.
Pour lire la suite de l'article et connaître mon analyse : http://www.orvinfait.fr/referencement_l ... ution.html
Pour en débattre après avoir lu l'article c'est ici.
Désolée de devoir l'écrire mais je n'ai rien trouvé de neuf sous ce lien sinon une société qui propose ses articles à la vente en n'affichant aucun prix et en laissant sous entendre que tout y est gratuit. Quand il faut s'inscrire et remplir un formulaire pour connaitre le prix de vente d'un article, j'assimile ça à un non respect du consommateur. Pour une révolution c'est une revolution. Je suis surtout révolté de m'être fait avoir. Je ne suis pas pour ce type de méthodes de vente (déguisées), donc je les dénonce. Désolé pour toi mais je préfère les choses claires et honnêtes.