Florida hypothes 1

WRInaute discret
Salut,

cela fait une bonne heure que je cherche sur les forums américains une explication du boulversement de florida...

Et puis, une idée à la con, une idée vraiment con m'est venue.

Les GGguy veulent enlever les gars qui optimisent , que ferais-je a leur place ? je me repetait cette idée quand soudain je me suis dis:

Mais oui! Point la courge je vais me prendre ! j'ai un log des requetes et j'ai juste à donner une penalité aux domaines qui font regulierement un link: ou un site: !!!

non ? ok je sors. M'ai d'empeche, j'aurais pt'et ben fait comme ca au lieu de me creuser à faire un super algo de filtre
¨

PJ
"chercheur en rank meilleur"
-
 
WRInaute discret
Dans le genre idée à la con, je peux aussi me dire:

ah ha ils optimisent leur site car on a pas changé notre algo ... faisons un random partiel du classement apres chaque google dance, comme ca personne n'y comprendra rien. et hop !

encore plus simple !
 
WRInaute passionné
pj a dit:
Mais oui! Point la courge je vais me prendre ! j'ai un log des requetes et j'ai juste à donner une penalité aux domaines qui font regulierement un link: ou un site: !!!

Tiens, je suis pas le seul à y voir pensé :D Ca me rassure presque.

Fred
 
WRInaute discret
d'autant plus que cela ferait intervenir un nouveau facteur dans l'algo de GG , et pas des moindre : la psychologie

PJ
" Freud factor"
-
 
WRInaute impliqué
tada a dit:
pj a dit:
donner une penalité aux domaines qui font regulierement un link: ou un site: !!!
:?: :?: Quel intérêt :?: :?:
Les GGguy veulent enlever les gars qui optimisent

Logiquement quand on utilise la fonction link: c'est que l'on s'interesse à son référencement et par conséquent qu'on essaye de l'optimiser au maximum, mais de là à dire que google n'aime pas... moi je ne sais pas ;-)
 
WRInaute discret
Dans l'algo de google pour classer les sites, y a-t-il de la stochasticité ?
En tout cas, ca serait une bonne chose...

Ca peut peut etre se savoir si plusieurs sites qui sont construits pareil ou seul les mots changent restent toujours classés dans le même ordre...
 
WRInaute discret
du point de vue "most relevant" : aucun, c'est bien pour ca que c'est une idee à la con :)

du point de vue "most money" : un gros, degager les sites qui potentiellement ont un interet economic à etre premier
 
WRInaute passionné
c vraiment une idée à la con lol

car imagine que c'est vrai... ben imagine donc tous les wemasters qui vont faire des commandes link: sur les sites de concurrents pour les descendre... ca serait de la folie pure
 
WRInaute passionné
Mitirapa a dit:
c vraiment une idée à la con lol
car imagine que c'est vrai... ben imagine donc tous les wemasters qui vont faire des commandes link: sur les sites de concurrents pour les descendre... ca serait de la folie pure

Ouais, c'est bien une idée à la con. Mais... en couplant ça avec les données de la toolbar, on doit pouvoir arriver à un truc bien... En gros, ça doit être possible de mettre en relation :

- les recherches du type link: ou site: sur le domaine X
- le calcul de PR ou de positionnement sur des pages de ce domaine X via des outils basés sur l'API Google
- la visite de toutes nouvelles pages de ce même domaine X (comme un webmaster qui teste ses nouvelles pages, donc)
- les modifications fréquentes des TITLE des pages de ce même domaine X (le webmaster qui fait des tests pour voir l'influence sur son positionnement)
- le fait que ce domaine X, à peine lancé, ait déjà de nombreux backlinks (c'est forcément une recherche de BL, et pas un vote spontané d'un site vers un autre)
- d'autres trucs auxquels je ne pense pas

Et avec tout ça, on doit avoir un bon profil de quelqu'un qui chercher à optimiser, sans même parler pour l'instant des anchor texts, des title, de l'URL et des H1 qui coïncideraient systématiquement pour toutes les pages.

Idée à la con... mais techniquement loin d'être impossible, non ?

Fred
 
WRInaute accro
moi je soupçonne a peu pres 99,5% des webmasters. en effet ils veulent quasiment tous arriver sur la premiere page. donc je propose de virer tous les sites de webmaster, sauf biensur ceux (0,5% dans notre exemple) qui ne cherchent pas a arriver dans les premieres places........! c etait vraiment une idée alacon......!! :) en fait, on devrait virer systematiquement les 10 premiers sur toutes les requetes imaginables. une fois que c est fait, on recommence et on vire les 10 premiers a nouveau... jusqu'à ce qu il n' y ait plus de premier..... héhéhé !
a+
Hervé
 
WRInaute accro
Ou on fait l'inverse... Google indexe les sites en commençant par les derniers... vu que les derniers ne cherchent absolument pas à être bien placer dans Google... l'information la plus pertinente devrait s'y trouver :wink:

ça c'est une vraie idée à la con :D
 
WRInaute impliqué
pj a dit:
donner une penalité aux domaines qui font regulierement un link: ou un site: !!!

Les GGguy veulent enlever les gars qui optimisent

ah, et puis on écarte assez facilement les 1000 sites de chaque université, ou chaque grosse administration :eek:) et la, bonjour la pertinence sur une recherche comme médecine lol... plus que des pillules miracles
 
WRInaute discret
ce que je vais dire est sans doute con et paranoiac :

je me demande si la googlebar n'aurait pas un role dans le classement des sites

elle est utilisée par un nombre important d'internautes
500 000 ? plus ?

la googlebar connait plusieurs informations :
-l'url de la page
-le temps passé sur cette page
-les mots clés associés à cette page

un visiteur tape une requete, disons qu'il visite 7 sites sur 20 réponses, logiquement le poid des 7 sites devraient augmenter, et meme proportionellement au temps passé sur chaque page...

si le visiteur tombe sur une page de spam sans intérét : sa visite va etre tres courte et le poid du site va diminuer... et inversement

ce qui permettrai d'obtenir une sorte de "pagerank de trafic", couplé avec le pagerank normal + d'autres facteur, on obtient alors le classement...

evidemment c'est une tres grosse supposition,
mais selon moi la googlebar ne sert pas qu'a voir son pagerank,
ca serait stupide de la part de google de ne pas exploiter le potentiel de son outil, hein ?
 
Nouveau WRInaute
pour la googlebar ya un bouton de vote , peut etre que c'est bientot l'heure de s'en servir ;)

sinon ceux qui pensent que le nombre de requete link:mon_url ou les requete sur les datacenter peuvent influer , a mon avis il devraient arréter de fumer !!!

, car si c'etait le cas tous mes concurrents serait déclassés depuis longtemps car la premiere chose a faire quand on veut se plaçer sur des requétes competitives , c'est le " reverse engineering" autrement dit faire un link: sur tous les concurrents afin d'etre equivalent en BL et de s'inscrire sur les memes annuaires.
 
WRInaute passionné
Junglist a dit:
sinon ceux qui pensent que le nombre de requete link:mon_url ou les requete sur les datacenter peuvent influer , a mon avis il devraient arréter de fumer !!!

Pas moins que ceux qui pensent que les boutons de vote servent à quelque chose, hein...

Qu'est-ce qui parait le plus crédible ? Que google repère les comportements dignes d'optimiseurs par un recoupement d'informations complexe, ou bien qu'il offre au premier venu la possibilité de modifier son positionnement avec des boutons de vote ?

Fred
 
WRInaute impliqué
mmm sur le nombre, ça me parait difficile. à moins d'arriver à générer des IP de milliers d'utilisateurs différents sans eveiller les soupçons de bons votes sur un site... et même pour des résultats de votes, des écartys statistiques, ça se voit... non, la stratégie du bouton de vote me parait évidente. de plus , que voudrais tu qu'ils en fassent de plus? une publication? ;)
 
Haut