Nouveau WRInaute
Hello,
Jusqu'a present, point de vue referencement oncle Google, on est au moins sur d'une chose: un algorithme bien complexe fait que notre site se trouve en bonne position ou pas. Qui dit algorithme dit plusieurs variables voir des milliers de variables...
Parmi ces variables se trouve surement la densite des mots clefs sur une page.
Alors j'ai etudie pendant des annees la densite des mots clef sur mes nombreux sites. Etude qui consiste a annalyser les sites conccurents qui se trouvent en premiere position bien sur. Mais plus j'annalysais, plus je m'enfoncais. J'etudier en general le top 10 qui sortait avec mes mots clefs.
Observation: aucun point commun entre les differents sites. Des pages qui sortent sans le mot clef, une seule fois le mot clef ou des centaines de fois. Alors comment trouver une logique commune sur des sites tellement differents? Bouhouhou...
Reponse: L'annalyse des densite est une realite d'antant qui ne tient vraiment pas la route aujourd'hui. La raison problable? L'essence surement de la logique d'algorithme. Comme ce n'est pas la seul variable et qu'il y en a des milliers, l'isolement d'un des criteres est superflu. Par exemple, parmi les site que j'annalysais il y en avait qui n'avait meme pas le mot clef en page mais etait linker par des centaines de sites pertinents ou d'autre qui avait des mots clef partout mais pas de BL... Alors?
Tout doit etre une question d'equilibre parmi des milliers de criteres qui en passant par l'aglo doivent (par ex) etre le plus proche de 1.
Si il y avait deux criteres, se serait du "piece of cake" mais etant donner le fait qu'il y en a des milliers, l'effort est vain. Sauf bien sur si vous etes Kasparov. Ce qui n'est pas mon cas.
Alors que faire? Alors que j'ai debute par une methodologie "scientifique" j'affronte la machine par simple intuition.
Jusqu'a present, point de vue referencement oncle Google, on est au moins sur d'une chose: un algorithme bien complexe fait que notre site se trouve en bonne position ou pas. Qui dit algorithme dit plusieurs variables voir des milliers de variables...
Parmi ces variables se trouve surement la densite des mots clefs sur une page.
Alors j'ai etudie pendant des annees la densite des mots clef sur mes nombreux sites. Etude qui consiste a annalyser les sites conccurents qui se trouvent en premiere position bien sur. Mais plus j'annalysais, plus je m'enfoncais. J'etudier en general le top 10 qui sortait avec mes mots clefs.
Observation: aucun point commun entre les differents sites. Des pages qui sortent sans le mot clef, une seule fois le mot clef ou des centaines de fois. Alors comment trouver une logique commune sur des sites tellement differents? Bouhouhou...
Reponse: L'annalyse des densite est une realite d'antant qui ne tient vraiment pas la route aujourd'hui. La raison problable? L'essence surement de la logique d'algorithme. Comme ce n'est pas la seul variable et qu'il y en a des milliers, l'isolement d'un des criteres est superflu. Par exemple, parmi les site que j'annalysais il y en avait qui n'avait meme pas le mot clef en page mais etait linker par des centaines de sites pertinents ou d'autre qui avait des mots clef partout mais pas de BL... Alors?
Tout doit etre une question d'equilibre parmi des milliers de criteres qui en passant par l'aglo doivent (par ex) etre le plus proche de 1.
Si il y avait deux criteres, se serait du "piece of cake" mais etant donner le fait qu'il y en a des milliers, l'effort est vain. Sauf bien sur si vous etes Kasparov. Ce qui n'est pas mon cas.
Alors que faire? Alors que j'ai debute par une methodologie "scientifique" j'affronte la machine par simple intuition.