hypothese

WRInaute discret
On a tous tendance a etudier les changements de google au jour le jour et les regarder a la loupe n'est peut etre pas forcement le meilleur moyen de les comprendre...

Quel est le but de google :

- d'avoir des resultats pertinents (un outil de qualite)
- de gagner de l'argent

pour ceci il lutte contre le spam et impose certaines regles...

Bon alors j'emets une hypothese sur le developpement futur de GG , admettons que google veuille: 1/ empecher les webmaster d'etre premier grace a leurs optimisations et 2/ les obliger a utiliser adword... une solution pourrait etre de mettre plusieurs algo en parrallele (en admettant que vu le nombre de site actuel et vu leur augmentation, il peut deja y avoir plusieurs pages egalement pertinentes sur une meme requete) ainsi plus personne ne serait premier sur tous les datas centers . Les data center loin de s'aligner aurait tendance alors a avoir chacun une evolution separee...L'utilisateur final lui pourrait par un systeme de vote , indiquer au moteur une bonne page...
Mais le fait d'avoir plusieurs algos en simultannes permettrait au nouveaux sites ou aux sites peu connus d'apparaitre eux aussi regulirements...les sites ayant recu un certains nombre de votes se retrouveraient bien positionnes sur un plus grand nombre de DC que les autres mais chaque dc ayant ses propres filtres, les resultats resteraient differents....

L'internaute lui tomberaient de facon aleatoire sur un dc ou sur un autre...Les webmasters n'auraient plus qu'a passer a la caisse pour etre certains d'apparaitre sur leur requete preferre ou alors a creer du contenu et encore du contenu pour augmenter leur chance de sortir du lot...

Bon voila , j'espere que quelqu'un comprendra l'idee, c juste une hypothese...(je suis peut etre completement parti en live mais bon si quelqu'un a d'autres idees sur ce que google nous reserve, je serai curieux de les lire, apres tout ya pas de mal a avoir de l'imagination...)
 
WRInaute discret
benben1973 a dit:
admettons que google veuille: 1/ empecher les webmaster d'etre premier grace a leurs optimisations

Il y aura toujours un premier...


es tu sur d'avoir lu mon truc jusqu'au bout....dans mon hypothese il n'y a pas un premier mais "des premiers"....A la limite on pourrait en imaginer un different pour chaque Dc...
 
WRInaute passionné
ce qu'il te dit, c'est que le résultat est peut etre aléatoire, mais que si un gars est premier sur une requete, aléatoire ou pas et sur n'importe quelle DC, il restera premier.

Pour ton hypothése, elle tient la route, a priori les aléas dans les résultats ne semblent pas un être un effet temporaire du a une google dance, mais semble s'insrire dans le temp. Ceci dit, dans la mesure ou a ca peut nous avantager aussi, c'est pasforcément un mal.
 
WRInaute discret
Il me semble que google utilise déjà plusieurs algorythmes pour établir ses classements. Il y a sans doute plusieurs raisons qui permettent d'arriver sur la première page (la prime fraîcheur par exemple). Il n'a pas besoins d'avoir plusieurs DC pour mettre tous ça en place.
 
WRInaute discret
libretto a dit:
Il me semble que google utilise déjà plusieurs algorythmes pour établir ses classements. Il y a sans doute plusieurs raisons qui permettent d'arriver sur la première page (la prime fraîcheur par exemple). Il n'a pas besoins d'avoir plusieurs DC pour mettre tous ça en place.

:? ....j'ai pas l'impression d'avoir ete compris par tout le monde....bah pas grave, c'etait juste une hypothese....Je pense neanmoins que les petits tuyaux pour etre a la premier pos. vont disparaitre dans le courant de l'annee... Ca marche encore un petit peu ...mais d'ici que ces petits trucs deviennent penalisant...ya pas loin...y va falloir faire dans la finesse...
 
Nouveau WRInaute
je trouve ton hypothèse intéressante john70.

En plus, si Google avait plusieurs datacenters avec des algorythmes différents et des internautes qui votent pour les sites... Ca pourrait presque lui permettre de prendre en compte le facteur "humain" de qualité : le/les datacenter avec le plus de votes positifs (ou la plus grande proportion de votes positifs) étant ceux dont les algorithmes feraient remonter les sites qui plairaient le plus au public et donc susceptible d'être les "meilleurs résultats" pour les requêtes effectuées...

... un peu comme un e-commerçant va tester deux versions de son site pour ne retenir que la meilleure, avant de la confronter à une nouvelle possiiblité d'évolution...
 
Haut