Un petit bout de l'algo de Google

WRInaute discret
Ca serait peut etre la formule!

GoogScore = (KW Usage Score * 0.3) + (Domain Strength * 0.25) + (Inbound Link Score * 0.25) + (User Data * 0.1) + (Content Quality Score * 0.1) + (Manual Boosts) - (Automated & Manual Penalties)

Trouvé sur Goube
 
WRInaute passionné
Tout faux! (enfin a mon avis)
GScore = (KW Usage Score * 0.6) + (Domain Strength * 0.1) + (Inbound Link Score * 0.4) + (Automated Boost) - (Automated & Manual Penalties)
Autrement dit, je pense que les mots-clef sont qd meme plus (tres) importants ainsi que les liens. Le domaine a certainement un petit role. Par contre, je ne crois ni en l'analyse de traffic (Google n'a aucun moyen de connaitre le traffic de tous les sites et il n'y a aucune raison d'avantager ceux qu'il connait) ni en l'existence d'une prime manuelle. Par contre il doit bien exister une prime automatique (dite de fraicheur). Quel est votre avis sur la ponderation?
 
Nouveau WRInaute
Pour la pondération, c'est sûr que l'on aimerait bien tous le savoir... 8)

La petite expérience de mes "petits sites" révèle quand même deux données peut-être plus importantes que les autres effectivement, la densité de mots clés pour un contenu quand même minimum et le nombre de liens de qualité qui pointent vers le site.

Enfin, c'est mon avis et je suis en accord avec moi même, ce qui est déjà pas mal. :roll:
 
WRInaute passionné
ChauffeurDeBuzz a dit:
Serious a dit:
Ah ah ah mdr :) Blau3, j'ai croisé cette formule sur SEOmoz. Elle me parait pas si mal. Même plus que correct.
C'etait une plaisanterie... vu qu'on en sait rien. Ceci etant, j'ai releve deux elements de la formule que je considere comme faux. A toi de me prouver le contraire.
 
Nouveau WRInaute
C'est l'âge du nom de domaine ou le travail effectué sur le référencement (recherche de liens, partenariats,contenu,nombre de pages...) qui fait le plus. J'ai toujours du mal à croire à cette notion. :?

Sinon, tous les anciens sites seraient forcément devant et les plus récents n'arriveraient jamais à les rattraper.

Pour moi, c'est certain : contenu + liens + densité + titres et descriptions différents = positionnement

Je n'ai pas les coefficients, mais j'y travaille :lol:
:arrow:
 
WRInaute accro
L'âge est effectivement important, mais sans dec, réduire l'algorithme de Google a une bête formule, je trouve ça inutile.

Un peu de feeling mince :lol:.
 
WRInaute passionné
ChauffeurDeBuzz a dit:
Serious, tu te plantes, la force du ndd (son age par exemple) a un poid dans le positionnement ;)
Je n'ai jamais dit le contraire, d'ailleurs j'ai mis un coefficient de 0.1 donc une certaine influence. Et ca ne concerne pas que l'age mais tous les elements du domaine (extension, age, nombre de sous-domaines, whois, ...)

Je parlais des deux elements suivants:
- User Data
- Manual Boost
qui, AMHA, n'interviennent pas dans le classement.
 
WRInaute accro
wullon a dit:
L'âge est effectivement important, mais sans dec, réduire l'algorithme de Google a une bête formule, je trouve ça inutile.

Un peu de feeling mince :lol:.


+10000000


C'est certainement le post le plus drôle depuis l'invention du pagerank :mrgreen:


Réduire l'algo et le référencement à une stupide barre verte... tsss non mais y en a je vous jure... :lol:
 
WRInaute passionné
Merci pour le lien euwe, j'avais zappé ça.

Tout comme chauffeurdebuzz "cette formule me parait pas si mal", mais je suis aussi d'accord avec Wullon : "réduire l'algorithme de Google a une bête formule, je trouve ça inutile".

On entend dire un peu partout qu'il y a environ 200 critères les réduire à cette formule est peut etre exagéré mais ça résume pas trop mal, après au niveau de la pondération on y croit on y croit pas chacun est libre d'avoir son avis la dessus, de toute façon si on avait les chiffres exacts on en discuterait meme pas ici :lol:
 
Nouveau WRInaute
Il est impossible de savoir effectivement ce sur quoi repose l'algo de Google. Sans le reduire, cette formule a le mérite de présenter tous les éléments correspondant à des bonnes pratiques. Si votre site est optimisé pour tous ces critères, c'est déjà du très beau travail... :twisted:
 
WRInaute accro
Moi cela me fait doucement rigoler ces supputations sur l'algorythme de Google :roll:

Comme déjà dit dans ce post... comment jauge-t-on la qualité d'un site ? de façon manuelle ou automatique ?
Si la qualité est jugée de façon automatique elle ne peut reposer que sur un algorythme complexe difficilement identifiable, prenant en compte les champs sémantiques du contenu et les liens entrant et sortant de la page.
Si la qualité est jugée de façon manuelle cela exige une armée de testeurs délivrant une opinion subjective et influençable... sans compter qu'il faudrait des testeurs dans toutes les langues.

Le Data user est aussi une inconnue difficilement quantifiable. Des informations sur qui ? L'utilisateur d'un site ? son comportement sur le site ? le nombre de secondes ou de minutes qu'il y passe ?... cela aussi reste dans le domaine de la subjectivité. On peut très bien rester 30 secondes sur un site et y trouver son compte... et y passer 20 minutes sans rien y trouver... ou se perdant dans l'arborescence.
De la même manière, des passionnés de certaines thématiques peuvent rester connecter toute la journée sur un forum traitant de cette thématique car ils font partie d'une communauté et restent prêts à répondre à un message... et ce n'est pas pour autant que l'on pourra considérer que ce site est intéressant pour le commun des internautes.

Beaucoup de buzz pour pas grand chose à mon avis, comme les fausses pistes autour du PR, histoire d'amuser un peu les webmasters qui ne prennent pas en compte les seuls conseils importants donnés par Google... faire un site pour les utilisateurs, contenant une information pertinente telle qu'elle est annoncée dans le titre et la description, avec des liens sortants qui complètent cette information. Les liens entrant et l'indexation naturelle suivront en prenant patience.
 
WRInaute accro
Americas a dit:
Beaucoup de buzz pour pas grand chose à mon avis, comme les fausses pistes autour du PR, histoire d'amuser un peu les webmasters qui ne prennent pas en compte les seuls conseils importants donnés par Google... faire un site pour les utilisateurs, contenant une information pertinente telle qu'elle est annoncée dans le titre et la description, avec des liens sortants qui complètent cette information. Les liens entrant et l'indexation naturelle suivront en prenant patience.
Ça, c'est un bon résumé de la problématique.
Mais c'est théorique aussi.
Dumper un site avec un paquet de BL artificiels, c'est déjà de la triche, pour moi. Le souci, c'est que ça marche. Si Google s'en tenait à ses recommandations, ce serait mieux.
 
Discussions similaires
Haut