Vers les frontlinks?
La libido du robot
Les moteurs de recherche, et en particulier, Google portent bien les traces de leur origine nord-américaine.
Cela à des conséquences sur la structure même du fonctionnement des dits moteurs.
On peut définir quelques caractèristiques de cet esprit, y compris dans les technologies de l'internet:
Une volonté affichée sinon d'hégémonie, du moins de leadership, au niveau mondial.
Les moteurs de recherche fonctionnent en suivant les marqueurs anglo-saxons, classiques.
Les créateurs des sociétés et des moteurs recherche sont quasiment tous issus des Universités de Californie, surtout de Stanford.
Parmi eux Sergey Brin et Larry Page, les inventeurs de l'algorithme de Google.
Stanford dispense un enseignement/culture, très offensif sur le plan économique, très novateur sur le plan technologique, mais classiques et même conservateur quant aux bases formelles.
Ainsi, Google aime, adore les documents respectant scrupuleusement les formes textuelles normalisées. C'est à dire des documents très hiérachisés, avec des titres, paragraphes, des listes et des attributs.
Indexer et positionner un contenu cohérent, riche et fiable est un ojectif loin d'être atteint par Google.
Structure, hiérachie, contenu avec une touche de pudibonderie ou de politiquement correct, voilà les principaux critères théoriques de sélection de Google.
Le web est un curieux mélange d'innovation et d'esprit libertaire et de rigorisme qui peut même se révéler quelque peu bureaucratique,
C'est un champ de bataille symbolique où s'affrontent les grands acteurs du secteur, dans des combats idéologiques, technologiques et surtout économiques.
Mais la valeur défendue mordicus est la libre concurrence, c'est celle qui va nous interesser.
La concurrence considérée comme un sport, est le moteur même de l'évolution permanente du paysage idustrielle et des remises en cause des positions établies.
A noter que la libre concurrence est un droit constitutionnel aux Etats Unis et qu'elle est l'origine même des théories du libéralisme.
L'homme qui parle à l'oreille des robots ...exitera-t-il?
Dans le cas de google par exemple, sa potentielle hégémonie sur le web, ne peut que susciter des contre pouvoirs et des volontés de casser cette prétention.
C'est, semble-t-il, le cas avec les projets du fondateur de Wikipédia de créer un moteur de recherche collaboratif.
Quand on connait la puissance de feu de Wikipédia, dans le Top 10, des sites en 2006, on peut être sûr de plusieurs choses :
Le danger pour les acteurs en place est réel.
La riposte de Google va être rapide, à la mesure de l'enjeu tant la menace économique est sérieuse.
Cette riposte ne peut être qu'une avancée technologique d'amélioration significative des qualités du moteur de recherche. Voir une
révision de ces paramêtres d'indexation et de positionnement.
Le tout dans le but d'améliorer considérablement la pertinence des informations de résultats.
Cela peut avoir des conséquences considérables sur les techniques de référencement.
Hypothèse
Pour ma part, je pense que l'analyse plus précise des liens sortants et des sites cibles peut faire partie de ces ripostes.
Autrement dit, rééquilibrer la valeur accordée aux backlinks(liens entrants) en faveur des frontlinks (liens sortant).
Je souhaiterais avoir sur cette question vos avis de spécialistes actifs et d'observateurs du web.
Cet article est posté conjointement sur WRI et sur mon site de manière plus détaillée.
Dominique Nugues[/list]
La libido du robot
Les moteurs de recherche, et en particulier, Google portent bien les traces de leur origine nord-américaine.
Cela à des conséquences sur la structure même du fonctionnement des dits moteurs.
On peut définir quelques caractèristiques de cet esprit, y compris dans les technologies de l'internet:
Une volonté affichée sinon d'hégémonie, du moins de leadership, au niveau mondial.
Les moteurs de recherche fonctionnent en suivant les marqueurs anglo-saxons, classiques.
Les créateurs des sociétés et des moteurs recherche sont quasiment tous issus des Universités de Californie, surtout de Stanford.
Parmi eux Sergey Brin et Larry Page, les inventeurs de l'algorithme de Google.
Stanford dispense un enseignement/culture, très offensif sur le plan économique, très novateur sur le plan technologique, mais classiques et même conservateur quant aux bases formelles.
Ainsi, Google aime, adore les documents respectant scrupuleusement les formes textuelles normalisées. C'est à dire des documents très hiérachisés, avec des titres, paragraphes, des listes et des attributs.
Indexer et positionner un contenu cohérent, riche et fiable est un ojectif loin d'être atteint par Google.
Structure, hiérachie, contenu avec une touche de pudibonderie ou de politiquement correct, voilà les principaux critères théoriques de sélection de Google.
Le web est un curieux mélange d'innovation et d'esprit libertaire et de rigorisme qui peut même se révéler quelque peu bureaucratique,
C'est un champ de bataille symbolique où s'affrontent les grands acteurs du secteur, dans des combats idéologiques, technologiques et surtout économiques.
Mais la valeur défendue mordicus est la libre concurrence, c'est celle qui va nous interesser.
La concurrence considérée comme un sport, est le moteur même de l'évolution permanente du paysage idustrielle et des remises en cause des positions établies.
A noter que la libre concurrence est un droit constitutionnel aux Etats Unis et qu'elle est l'origine même des théories du libéralisme.
L'homme qui parle à l'oreille des robots ...exitera-t-il?
Dans le cas de google par exemple, sa potentielle hégémonie sur le web, ne peut que susciter des contre pouvoirs et des volontés de casser cette prétention.
C'est, semble-t-il, le cas avec les projets du fondateur de Wikipédia de créer un moteur de recherche collaboratif.
Quand on connait la puissance de feu de Wikipédia, dans le Top 10, des sites en 2006, on peut être sûr de plusieurs choses :
Le danger pour les acteurs en place est réel.
La riposte de Google va être rapide, à la mesure de l'enjeu tant la menace économique est sérieuse.
Cette riposte ne peut être qu'une avancée technologique d'amélioration significative des qualités du moteur de recherche. Voir une
révision de ces paramêtres d'indexation et de positionnement.
Le tout dans le but d'améliorer considérablement la pertinence des informations de résultats.
Cela peut avoir des conséquences considérables sur les techniques de référencement.
Hypothèse
Pour ma part, je pense que l'analyse plus précise des liens sortants et des sites cibles peut faire partie de ces ripostes.
Autrement dit, rééquilibrer la valeur accordée aux backlinks(liens entrants) en faveur des frontlinks (liens sortant).
Je souhaiterais avoir sur cette question vos avis de spécialistes actifs et d'observateurs du web.
Cet article est posté conjointement sur WRI et sur mon site de manière plus détaillée.
Dominique Nugues[/list]