Précision sur les backlinks

WRInaute discret
Bonjour à tous,

Je lis partout sur le forum que les backlinks sont super importants pour obtenir un bon référencement.

Plus précisément, cela veut-il dire qu'il faut :
1°- que beaucoup de pages de sites différents du site à référencer doivent faire un lien vers ma page ;
2°- créer beaucoup de liens sur ma page à référencer vers des pages internes à mon site et également, vers des sites traitant du même sujet ;

Un des deux points a-t-il plus depoids pour le positionnement ?

Autre question, dans les deux cas, parle-t-on de backlink ?

Merci,
 
WRInaute discret
Plus clairement, quel est le poids respectif de chacun des types de lien suivant :

1) Liens présents sur autres sites pointant vers ma page à référencer ;

2) Liens d'une page à référencer de mon site vers une autre ;

3) Liens d'une page à référencer de mon site vers un autre site (extérieur au mien);

En espérant avoir été plus clair
 
WRInaute accro
En fait il faut imaginer que les backlinks concernent une seule page. Donc pas de différences entre internes et externes. :wink:
Après ce qui est important c'est dans l'ordre : le PR de la page qui fait le lien (qu'elle soit externe ou interne), les mot clés dans le lien, voir dans la page (rien de sur a ce niveau) et aussi la quantité de liens sur la page (dilution du PR)

SquawK
 
WRInaute discret
squawk a dit:
En fait il faut imaginer que les backlinks concernent une seule page. Donc pas de différences entre internes et externes. :wink:

Désolé, je ne comprends pas ce que tu veux dire. Et comme ça a l'air important :wink:

Pour le reste OK
 
Nouveau WRInaute
Salut xavier01071977, :wink:
Prenons un exemple:
Pour un site de recettes qui reçoit deux liens externes (avec le même "PR") avec les mots "recettes de cuisine".
Si le lien entrant provient d'un autre site de cuisine il aura plus d'importance que si il vient d'un site automobile.

Lorque tu reçois des liens qui t'apporte du "PR" à toi de le répartir sur tout ton site en liant les pages entre elles.

En ce qui concerne les liens sortants:
Il est plus apprécié par GG d'avoir des liens sortants de qualités.

Jeff, 8)
 
WRInaute impliqué
Ce que tu dis est vrai Jeff34, mais tu ne dis pas pourquoi...

Or s'intéresser au pourquoi n'est pas sans surprises...

L'algorithme originel du pagerank (celui utilisé en 1998 et jusqu'en juillet 2003, date probable du changement) ne tient aucun compte (mais alors aucun) de la thématique du site qui te fait un backlink... Ni de la thématique du site vers qui tu fais un lien...

Tous les liens sont considérés comme identiques (à part la dichotomie interne/externe, encore qu'elle ait plus d'importance pour les crawls et l'indexation que pour le calcul du PR). Bref un backlink en provenance d'un site automobile à PR5 était pris en compte de la même façon qu'un backlink en provenance d'un site de recettes de cuisine.

Et pourtant, les conseils de Jeff34 sont aujourd'hui judicieux. Il y'a donc eu des changements profonds dans l'algorithme de Google.
 
WRInaute passionné
Jeff34 a dit:
Si le lien entrant provient d'un autre site de cuisine il aura plus d'importance que si il vient d'un site automobile.

Salut Jeff :wink:

Effectivement, tu donnes là le conseil à la mode actuellement... Mais est-ce que ça a été testé et vérifié ? Comment ?

Google, par exemple, indexe des pages et non des sites... Comment fait-il dans le cas d'une page consacrée à un thème différent de son site ? Que se passe-t-il au sein d'une page dédiée à plusieurs thématiques ?

Google se base-t-il sur l'odp ? Si oui, il n'y a généralement que la page d'accueil d'un site listée dans l'odp... Google ne se fie qu'au nom de domaine ?

Bref, je voudrais bien avoir, si possible, quelques précisions sur le pourquoi du comment de ce conseil. A vous lire ! :D
 
WRInaute passionné
Justement si cette logique est de page par page c'est beaucoup plus simple.
Imaginons qu'une page traite des abeilles, elle fait un lien vers une autre page qui traite aussi des abeilles, je pense que Google leur donne un critère supplémentaire qui s'appelerait la proximité et qui donnerait plus d'importance à ce linking le jugeant plus pertinent.
c'est pourquoi si un site fait un lien vers le votre à la suite d'un article intéressant, le backlink aura en toute hypothèse plus d'importance qu'un lien sur page de liens.
De plus ces liens sont généralement spontanés.
D'un autre côté, cela explique aussi la bonne position des annuaires car ils sont construits sur une architecture par catégorie et linkent logiquement vers des sites du même thème, je le répète de la page.
 
WRInaute impliqué
Pas de problème...

Google leur donne un critère supplémentaire qui s'appelerait la proximité et qui donnerait plus d'importance à ce linking le jugeant plus pertinent.
Très compliqué à faire, il y'a une explication plus simple...

Google n'utilise plus l'algorithme du pagerank original depuis des mois, mais une variante développée par des chercheurs de l'université de Stanford, qui ont créé une société baptisée Kaltix, vite rachetée par Google.

Cette variante, baptisée block rank, a permis les mises à jour continues de l'index, en autorisant un calcul précis d'un pagerank pour les sites situés dans une zone mise à jour, sans attendre que tout l'index soit mis à jour.

Ce nouvel algorithme se base non plus sur une matrice de liens globale, mais sur une matrice de matrice de liens locaux. Les matrices de liens locaux sont constituées de pages hautement interconnectées entre elles. Dans la pratique, il s'agit de sites traitant de la même thématique, ou appartenant à la même communauté.

Le résultat, c'est que les liens de block à block transmettent leur PR selon une règle différente que les liens interne à un block... La fuite et l'apport de PR sont meilleurs lorsque l'on fait des liens, ou lorsque l'on obtient des liens, (vers ou d') un site autorité situé dans le même block que soi ...

Il y'a juste un truc qui n'est pas élucidé : ce truc marche bien avec la partie du web qui est hautement interconnectée. Tous les sites ne sont pas interconnectés de cette façon. Comment est calculé le blockrank pour des sites "isolés" ? Un blockrank par site ?
 
WRInaute passionné
youpi

(C'est moi qui mets en gras)
cariboo a dit:
Ce nouvel algorithme se base non plus sur une matrice de liens globale, mais sur une matrice de matrice de liens locaux. Les matrices de liens locaux sont constituées de pages hautement interconnectées entre elles. Dans la pratique, il s'agit de sites traitant de la même thématique, ou appartenant à la même communauté.
Aaaaaah, comme ça, je comprends :D merci de l'explication ! Google se base sur les liens, non sur les sujets de pages.

Pourtant ainsi, un réseau de sites gérés par le même webmestre bénéficie de ce changement, même s'ils traitent de sujets très différents. N'est-ce pas le genre de chose que voulait éviter Google ?

Dans la même logique : un seul site avec un très grand nombre de pages est encore plus avantagé avec ce système, il "pèse" plus qu'un site traitant du même sujet mais obtenant ses BL d'endroits variés. C'est ça ou j'ai zappé un truc ? :lol:

cariboo a dit:
Le résultat, c'est que les liens de block à block transmettent leur PR selon une règle différente que les liens interne à un block... La fuite et l'apport de PR sont meilleurs lorsque l'on fait des liens, ou lorsque l'on obtient des liens, (vers ou d') un site autorité situé dans le même block que soi ...
Là, je suis relargué, je ne vois plus pourquoi :( De ton explication ressortirait surtout le fait que le PR se transmet au sein d'un bloc plus rapidement (pour mettre l'index à jour), mais n'est-il pas possible que le PR transmis par les pages hors de la communauté le soit de la même manière (quantitativement), quoique en différé ?
 
WRInaute impliqué
Pourtant ainsi, un réseau de sites gérés par le même webmestre bénéficie de ce changement, même s'ils traitent de sujets très différents. N'est-ce pas le genre de chose que voulait éviter Google ?

Je ne sais pas ce que cherche à éviter Google. Je suis plus sûr de ce qu'ils cherchent à obtenir : plus de pertinence. Il n'a jamais été prouvé que chercher à tenir compte de la thématique des sites dans les algorithmes de classement améliorait la pertinence. Elle l'améliore localement (sur une liste limitée de sites). Sur le web mondial, cela dégraderait la pertinence de nombreuses pages de résultats, ce qui n'est pas le cas du pagerank.

C'est l'une des raisons pour laquelle l'agorithme Hilltop est inapplicable pour un moteur de recherche mondial avec un index de la taille de Google.

Les algo qui marchent pour "classer" des sites en fonction de leur pertinence se basent tous sur la structure des liens. Le pagerank comme HITS. HITS est particulièrement conçu pour s'adapter à l'existence de ces groupes de sites interconnectés, et pour tenir compte de l'origine des liens (en provenance d'un site de la même communauté, ou non).

Par contre, les "regroupements de sites" ainsi mis en lumière ont des significations diverses : sites de copains, sites de vraies communautés, sites artificiellement interconnectés (spamdexing), ou sites parlant de thématiques identiques...

Tu as raison de souligner que le fait de favoriser les liens au sein d'une même communauté favorise le spamdexing. C'est ce qui a condamné assez vite le projet CLEVER basé sur HITS. Mais l'algo utilisé par Google n'a pas ce défaut, il a même la tendance inverse : diminuer les effets du spamdexing.

un seul site avec un très grand nombre de pages est encore plus avantagé avec ce système, il "pèse" plus qu'un site traitant du même sujet mais obtenant ses BL d'endroits variés. C'est ça ou j'ai zappé un truc ?
Non c'est pas ça. Les sites avec un grand nombre de pages sont aussi favorisés par l'ancien algo que le nouveau. C'est dû au fait qu'au niveau local, on utilise l'algo du pagerank, la différence se fait au niveau des transmissions de PR entre blocs.

De ton explication ressortirait surtout le fait que le PR se transmet au sein d'un bloc plus rapidement (pour mettre l'index à jour), mais n'est-il pas possible que le PR transmis par les pages hors de la communauté le soit de la même manière (quantitativement), quoique en différé ?
C'est pas tout à fait ça. L'algorithme du pagerank fait que le PR d'une page dépend, en théorie, du PR de toutes les autres pages du web. Le PR transmis par une page modifie le PR d'autres pages qui à leur tour modifient le PR d'autres pages... y compris la page de départ.
On imagine la taille des matrices à calculer.Bref, il fallait plusieurs jours (une semaine) à Google pour calculer jadis le pagerank de toutes les pages de son index. Et le problème, c'est que le calcul n'est juste que si on le fait sur un index qui ne change pas...

Le problème, c'est qu'au bout d'une semaine, le PR sera juste, mais l'index est périmé... La trouvaille des gens de Kaltix c'est d'avoir démontré que l'on peut simplifier le calcul en "rassemblant" les sites en blocs, puis de calculer le PR en appliquant le pagerank aux blocs, et non plus aux pages individuellement. C'est fou ce que cela simplifie le calcul...

Ce système à trois avantages immédiats :
- on peut faire des mises à jour permanentes de l'index. Inutile de tout recalculer, si on a crawlé un block de site, on recalcule le localrank (le pagerank local du bloc). Cela ne prend plus des jours, quelques minutes seulement... La mise à jour de cette portion de l'index peut se faire sans attendre la googledance. De temps en temps, on recalcule le pagerank de la matrice des blocs (c'est ce qui explique la persistance de "pseudo dance" qui affectent une grande partie du classement)
- on peut jouer sur les coefficients de transfert de PR de bloc à bloc. En tournant plus ou moins la molette, on change le comportement du moteur.
- cela facilite aussi le calcul de pagerank thématiques... Pagerank thématiques que l'on voit utiliser dans deux outils de Google Labs : Personalized Web Search et Site Flavored Google Search
 
WRInaute passionné
Oki Cariboo, merci de ton explication ! :wink: Mis à part le fait que je pars d'un peu loin et que je ne sais pas ce que sont Hilltop, Hits et Clever, j'entrevois un peu mieux comment fonctionne Google :D

Du coup, le conseil d'échanger des liens entre sites de même thématique n'est pas forcément pertinent : pour être sûr, il faudrait connaître les différents blocs, ce qui ne doit pas être toujours simple de chez soi 8), sans compter que ça doit être assez mouvant.

Sur ce point :

cariboo a dit:
La trouvaille des gens de Kaltix c'est d'avoir démontré que l'on peut simplifier le calcul en "rassemblant" les sites en blocs, puis de calculer le PR en appliquant le pagerank aux blocs, et non plus aux pages individuellement. C'est fou ce que cela simplifie le calcul...
N'est-ce pas cela qui puisse être la cause de ce qu'on appelle "prime à l'ancienneté" ? Un site ancien n'a-t-il pas tendance à bénéficier plus facilement qu'un nouveau d'un bon PR de bloc ?
 
WRInaute impliqué
Du coup, le conseil d'échanger des liens entre sites de même thématique n'est pas forcément pertinent : pour être sûr, il faudrait connaître les différents blocs, ce qui ne doit pas être toujours simple de chez soi , sans compter que ça doit être assez mouvant.

Et si, c'est très pertinent au contraire. Et il faut le faire de manière naturelle.

On ne peut pas connaître les contours d'un bloc, mais ce n'est pas grave. On prend de grands risques à essayer de berner le système, il faut donc éviter de créer des structures de liens artificielles (c'est peut être l'explication du "sandbox effect" que les membres du forum américain SEOCHAT ont cru identifier), sauf à se lancer dans du spamdexing à grande échelle.

N'est-ce pas cela qui puisse être la cause de ce qu'on appelle "prime à l'ancienneté" ? Un site ancien n'a-t-il pas tendance à bénéficier plus facilement qu'un nouveau d'un bon PR de bloc ?
Pas du tout... Les sites anciens bénéficient naturellement d'un meilleur référencement :
- ils sont souvent bien présents dans dmoz, et depuis longtemps
- ils sont connus, et ont acquis avec le temps de nombreux backlinks externes et de qualité

Bref, il n'y a rien dans l'algo de Google qui favorise les anciens sites. Ils sont juste intrinsèquement mieux référencés.
 
WRInaute accro
cariboo a dit:
[Et si, c'est très pertinent au contraire. Et il faut le faire de manière naturelle..

Tout d'abord merci pour tes explications sur ce thread très instructives. Sur ce point je ne sais quoi penser car j'ai fait un "test" il y a peu en obtenant 4 BL de PR4/5 vers un de mes sites qui ont étés mis en place en 1 journée ( quasiment ).L'effet sur le positionnement a été rapide disons une semaine et au vu de ce que tu dis c'est normal.Par contre les BL viennent de sites qui n'ont rien a voir en thématique..

PS aux canadiens : arretez la chasse aux cariboo : ils sont ingénieurs motoristes chez Google !
 
WRInaute impliqué
Par contre les BL viennent de sites qui n'ont rien a voir en thématique..

Peu importe, tous les backlinks sont pris en compte dans l'algo. Donc, gagner des backlinks de PR 6 ou 7, quelle que soit la thématique, ne fait qu'améliorer le référencement.

Ce que répète GoogleGuy, et Matt Cutt plus récemment, c'est que les liens en provenance d'un site faisant autorité sur une thématique sont de meilleurs liens... et que faire des liens vers des faisant autorité sur une thématique ne fait pas de mal, et fait plutôt du bien. Logique, car cette politique crée une structure de liens typique d'un bloc de sites interconnecté (une communauté, ou un groupe de sites parlant de la même chose)

Dans une telle structure les fuites de PR sont minimisées...

arretez la chasse aux cariboo : ils sont ingénieurs motoristes chez Google !

:lol: pas grave, je n'ai pas de bois sur la tête. Je ne travaille pas chez Google, et je ne suis même pas ingénieur :wink:
 
WRInaute passionné
Très instructifs, par contre je pense pas me trompé en disant que le sujet a une petite erreur
"Précision sur les backlists" au lieu de "Précision sur les backlinks" petite différence qd mm ;)
et pui merci cariboo pour ces infos ;)
 
WRInaute accro
cariboo a dit:
N'est-ce pas cela qui puisse être la cause de ce qu'on appelle "prime à l'ancienneté" ? Un site ancien n'a-t-il pas tendance à bénéficier plus facilement qu'un nouveau d'un bon PR de bloc ?
Pas du tout... Les sites anciens bénéficient naturellement d'un meilleur référencement :
- ils sont souvent bien présents dans dmoz, et depuis longtemps
- ils sont connus, et ont acquis avec le temps de nombreux backlinks externes et de qualité

Bref, il n'y a rien dans l'algo de Google qui favorise les anciens sites. Ils sont juste intrinsèquement mieux référencés.

Pas si sûr que toi. J'ai mon ancien site (que j'appellerai la copie) et un site présent depuis 8 mois (lui DMOZ). J'ai normalement laissé la copie de coté, supprimé des rubriques, plus vraiment mis à jour, pas optimalisé pour les requêtes mais régulièrement, l'ancien présent depuis 5 ans, sans BL (pire pointe vers le nouveau) passe devant sans être optimalisé pour les requêtes "importantes". Peut-être vu le faible nombre de liens vers les pages internes mais...
 
WRInaute impliqué
Ybet, tes anciennes pages et tes nouvelles sont différentes... Cela démontre une fois de plus que les backlinks et le PR ne font pas tout pour être bien classés, les autres critères sont aussi (plus ?) importants.
 
Olivier Duffez (admin)
Membre du personnel
Merci aux participants de cette discussion très intéressante, et notamment à Cariboo.
J'en profite pour rappeler à ceux qui ne le sauraient pas qu'un des articles décrivant l'algorithme du BlockRank développé par Kaltix avait été synthétisé et traduit ici : https://www.webrankinfo.com/analyses/etu ... ckrank.php
A l'époque j'avais pu discuter par email avec les auteurs, mais depuis leur rachat par Google c'est impossible :-(

Cariboo, j'aimerais bien si tu le veux qu'on détaille ce qu'on appelle un bloc (dans le BlockRank) car dans leurs articles, un bloc est en fait un sous-domaine, tout simplement, alors que dans ton idée c'est un ensemble de pages interconnectées.

Olivier
 
WRInaute impliqué
Ah, ouf, j'avais peur que personne ne vienne me demander "mais d'où il sort ça", ce qui constitue forcément une réaction saine face à toute info diffusée sur un forum, quelle que soit sa réputation et (surtout) quelle que soit la réputation du diffuseur de l'info.

Sans Olivier, cela m'aurait amené à devoir réintervenir tout seul pour compléter tout cela :cry:

Je le répète tout le temps : ne croyez pas tout ce qui se dit sur les forums, croisez vos infos, conservez une attitude prudente et sceptique.

Bon, la question d'Olivier va me permettre de distinguer ce dont on peut être sûr à mon avis, ce qui relève d'une théorie hypothétique qui fonctionne aujourd'hui mais qui peut être démentie demain, et ce qui s'avère être une spéculation plus osée.

Sur l'utilisation du block rank : c'est à peu près sûr. C'est la seule méthode connue qui permet une indexation continue en continuant à calculer un pagerank. C'est la seule méthode qui permet, sans multiplier par cent le nombre de machines utilisées par Google, de calculer un pagerank thématique, visible dans le "site flavored search" et "le Personalized Web Search".

Ensuite l'explication par la seule structure des liens au sein d'un bloc est possible, c'est la première que je vous ai vendue, mais il s'avère que ce n'est pas la seule, et une autre, très proche est tout aussi valable (plus ? oui je crois)

Ce que tu dis est exact Olivier, dans leur article sur le blockrank, ils envisageaient de calculer un blockrank par sous domaine... J'ai écrit
Dans la pratique, il s'agit de sites traitant de la même thématique, ou appartenant à la même communauté.
Zut, j'aurais du dire "pages" au lieu de "sites". Bien relevé Olivier...

Parce que les blocs sont forcément réduits en fait:

Un "gros site" peut contenir plusieurs blocs
Un petit site peut appartenir à un bloc plus important (pourvu qu'il soit hautement interconnecté avec d'autres)
Dans ce système, il y'a aussi des tas de sites qui ne rentrent pas dans les cases (ils constituent probablement un bloc à eux tout seuls : hypothèse restant après un coup de rasoir d'Occkham).
Par contre il ne sert à rien de créer un bloc entre sites faiblement connectés, et même moyennement connectés.
Donc il ne faut pas imaginer des blocs composés de centaines de sites, mais des blocs de centaines de pages...

Par ailleurs, je pense que nos amis de Kaltix ont dû franchir obligatoirement l'étape suivante, qui était "zappée" dans leurs premières expériences... Ce qui manquait dans leur article, c'était la description de la méthode qui permettait de repérer les "bons blocs"... Parce que calculer un blockrank sur geocities dans son ensemble (exemple étudié dans l'article), qui contient des milliers de sites non interconnectés entre eux, ce n'est pas forcément une bonne idée...

Il est clair qu'ils ont dû élaborer des techniques permettant de déterminer quels étaient les "meilleurs blocs", ceux qui convergent le plus vite... Sans cela, l'applicabilité de leur algo à un index de la taille de Google était peu viable. Ils annonçaient cette étape suivante dans leur article.

Il existe de nombreux papiers sur des algos qui permettent de "détecter" de tels groupes de pages... Et ces algos ne se basent pas sur les domaines ou sous domaines, donc un "bloc" ainsi repéré peut déborder sur d'autres sous domaines, voire différents domaines...

Bref, ce que l'on ne connait pas, c'est la taille des blocs. Du coup, la "sensibilité à la thématique" s'explique de deux manières différentes suivant que l'on considère la taille des blocs :
- s'il s'agit de tout petits blocs : la structure des liens n'explique plus le bonus en provenance de sites faisant autorité. Dans ce cas, elle résulte d'un clustering global doublé de calculs de pagerank thématiques pour chaque bloc (il est à peu près sûr que le clustering et le calcul des pagerank thématiques fonctionnent)
- s'il s'agit de très grands blocs : la structure des liens explique seule l'influence des "bons liens" émanant de la même thématique...

La première hypothèse est donc celle dont je n'ai pas encore parlé... Dans le calcul d'un pagerank thématique, on commence par rassembler un groupe de sites faisant autorité (tiens tiens) au hasard l'annuaire DMOZ (tiens tiens), on regroupe le tout en thématiques plus générales (en s'aidant d'un algo de clustering et de classification), et on lance un calcul de pagerank en partant des sites faisant autorité sur une thématique.

Dans ce cas, si on obtient des liens de sites "authority" et que l'on fait des liens vers sites de la même thématique / communauté, cela maximise le PR thématique (ça c'est sûr).

Si cette deuxième hypothèse est vraie, cela permet d'utiliser le PR thématique pour améliorer la pertinence de certaines requêtes... Imaginez un filtre qui tienne compte du PR thématique pour "virer" de l'index certaines pages artificiellement référencées sur certains mots clés, cela risque de faire mal.

Ah mais tiens au fait ? Qu'est-ce qui s'est passé cet été ? N'a-t'on pas vu disparaître des centaines de pages sur certains mots clés, justement des pages artificiellement référencées ?

Là, c'est juste une théorie qui marche, jusqu'à ce qu'une meilleur explication soit donnée. Je la trouve juste plus conforme à la réalité de ce qui est observé aujourd'hui, que les filtres bayesiens ou l'algo hilltop.
 
Olivier Duffez (admin)
Membre du personnel
en voilà des discussions intéressantes :roll:
on lance un calcul de pagerank en partant des sites faisant autorité sur une thématique.
je ne vois pas ce que tu veux dire par "en partant des sites...". même s'il est restreint à un bloc, le calcul du PR reste itératif je pense. peux-tu préciser ce que tu as voulu dire ?

à part ça, je pense que la question la plus logique suite à cette discussion est la suivante : comment peut-on estimer l'importance du PR thématique ? comment peut-on le mesurer ou prouver (par un exemple) qu'il existe bien ?

:arrow: histoire de faire avancer un peu + le schmilblick :p
Olivier
 
WRInaute discret
WebRankInfo a dit:
à part ça, je pense que la question la plus logique suite à cette discussion est la suivante : comment peut-on estimer l'importance du PR thématique ? comment peut-on le mesurer ou prouver (par un exemple) qu'il existe bien ?

On peut partir de 2 sites différents dans le contenu mais similaires dans l'architecture (pour ne pas trop fausser les résultats) avec une thématique bien précise et essayer de trouver des partenaires dans une catégorie Dmoz qui correspond au thème pour l'un et completement différente pour l'autre en essayant d'équilibrer le nb de page et le PR
Et refaire ça sur plusieurs thèmes avec plusieurs sites pour ne pas avoir qu'un seul exemple....

Un énorme travail pour peut etre pas grand chose.... je pense que ça restera une hypothèse pour le moment
 
WRInaute accro
Super intéressant. cela expliquerait ausis le bon en positionnement effectués par les pages des sites fraichement présente sur DMOZ apres la mise a jour du google directory.....! possible que ces nouvelles pages profitent alors de l´effet "blockrank" du DMOZ en terme de PR thématique.
 
Olivier Duffez (admin)
Membre du personnel
il faudrait identifier s'il s'agit de DMOZ ou du répertoire Google, ce dernier n'étant remis à jour que rarement (tous les 3 mois environ ?)
 
WRInaute accro
Je n avais pas constaté d´amélioration à la simple inscritpion dans le DMOZ mais seulement lorsque la catégorie DMOZ a été indiquée dans les resultats google. Ce qui pourrait indiquer qu´il faille attendre non seulemement la MAJ du google directory mais surtout la prise en compte de la MAJ dans les resultats google.

Cela dit, je ne m´etais pas posé la question à ce moment là , ca pourrait donc valoir le coup que quelqu un qui vient juste de proposer sont site sur DMOZ fasse un état des lieu de son positionnement aujourd´hui, puis a l inscription DMOZ, puis a la MAJ du google directory et enfin lorsque les resultats google prendront en compte les infos du directory.

et le tout..... sans faire de modifs ou d echanges de liens au cours de ces periodes (pas facile donc !!)
 
WRInaute occasionnel
Il me semble que les blocs pourraient être determinés par le dmoz. Ca permet a google de regrouper les sites par thématique.
Ce qui est sur en tout cas, c'est que d'obtenir des liens de sites de la meme catégorie dmoz est meilleur que des liens d'une autre catégorie. Et cela parce que le PR se dilue dans la meme catégorie, est récupéré par l'annuaire, et est redistribué aux sites de la catégories.
Mon explication vous semble claire?
 
WRInaute impliqué
A propos de DMOZ et du pagerank thématique.

En fait, les gens de kaltix ont pondu toute une série d'articles sur ces sujets là. Leur papier sur le pagerank thématique est un papier plus ancien que celui sur le block rank. Dans ce papier ils décrivaient le modus operandi qu'ils avaient suivi : ils partaient d'un jeu réduit de sites, chosis dans l'ODP, et avaient établi seize thématiques à partir des seizes répertoires de niveau 1 de l'ODP.

Comme les gars de Kaltix montraient déjà à l'époque que le choix de l'ODP donnait d'excellents résultats en terme de pertinence, il est probable selon moi qu'ils ont repris comme source l'ODP ou le répertoire Google pour leurs calculs de pagerank thématique. Pourquoi aller chercher ailleurs ce qu'ils ont à portée de la main.

C'est pourquoi j'ai fait allusion à DMOZ comme "source possible" de sites autorité pour "amorcer" le calcul du pagerank thématique. Mais ce n'est pas une obligation, le répertoire de Google doit marcher aussi, évidemment.

Pour l'histoire du PR et du calcul iteratif : oui le pagerank reste un calcul iteratif. Sauf que pour créer ce PR thématique, on ne prend en compte que la matrice des liens de pages reliées à une série de pages autorité, qui sont dans la thématique.

On calcule autant de pagerank différents que de groupes de sites thématiques de départ. La structure de liens qui sert de base au calcul du pagerank étant différente (on ne travaille que sur une partie limitée du web), les valeurs de PR obtenues sont différentes du PR global.

Dans ce contexte, le blockrank a deux avantages : en diminuant le nombre de "noeuds" à calculer, il rend faisable la génération de dizaines, voire de centaines de pageranks. Sinon, il aurait fallu à google développer une puissance de calcul gigantesque. Sur un plan théorique, les "sauts" du promenoir aléatoire sont également très raccourcis puisque l'on ne travaille que sur la matrice de transitions, et que les blockranks convergent en quelques itérations.
 
Olivier Duffez (admin)
Membre du personnel
cariboo, as-tu des idées sur :
à part ça, je pense que la question la plus logique suite à cette discussion est la suivante : comment peut-on estimer l'importance du PR thématique ? comment peut-on le mesurer ou prouver (par un exemple) qu'il existe bien ?
 
WRInaute impliqué
Je pense que ce qui sert au classement des pages de résultat de Google encore aujourd'hui, c'est un PR "normal".

Mais, les "outils" présentés dans Google Labs démontrent que l'index de Google contient aussi des PR thématiques. Sans PR thématique, les outils de Kaltix ne pourraient pas fonctionner.

(attention, il y'a probablement beaucoup moins de PR thématiques que de rubriques de personnalisation proposées dans les outils de Kaltix).

Maintenant, en dehors des outils présenté dans Google Labs, à quoi sert le PR thématique dans l'index de Google ?

A mon avis, pour l'instant, à peu de chose. Mais demain peut-être... J'ai dit ailleurs que les "conseils" des gens de Google sonnaient comme des avertissements...

Le PR thématique n'est utilisable que dans un moteur de recherche sensible au contexte. Il sert à renvoyer des pages de résultats qui parlent de zoologie et d'animaux quand on tape jaguar et que l'on cherche des infos sur ce félin, et non des concessionnaires automobiles... Sauf que quand on tape jaguar dans Google, Google n'a aucun moyen de savoir si on cherche un félin ou une voiture... Bref, impossible de savoir le PR thématique à utiliser pour classer les réponses...

Par contre, visiblement tout est prêt pour passer à l'étape suivante qui serait la personnalisation des résultats selon le profil entré par l'internaute et/ou l'enregistrement des requêtes successives pour comprendre le contexte de recherche, et/ou l'interrogation du moteur en langage naturel.

Si MSN ou Yahoo veulent sortir demain un moteur plus pertinent, Google a déjà sa réplique prête...

Le PR thématique peut servir aussi à autre chose dès aujourd'hui... Si l'on reprend l'idée de calculer un PR volontairement biaisé en ne considérant que sites reliés à des sites faisant autorité, on peut aussi créer des PR dont la valeur n'indique plus une popularité dans un groupe de pages thématiques, mais la popularité dans un groupe de pages ... faisant autorité.

Ce qui permet de faire des filtres très efficaces pour supprimer de certaines pages de résultats des url qui n'ont rien à faire dans un contexte donné (sites sans backlinks "fiables")

Je n'ai aucune preuve, mais comme la technologie est là, pourquoi ne pas l'utiliser ? Cela expliquerait le fonctionnement du fameux "filtre anti sites commerciaux" qui a tant fait couler d'encre sur les forums anglo saxons. Et les conseils des gens de Google. Ce qui voudrait dire alors que Google calcule des PR thématiques (plus généralement des PR biaisés, ou "flavored PR") depuis la rentrée 2003...

Comment savoir si le PR thématique est réellement utilisé pour classer les url dans les pages de résultats ? Pas facile. Mais alors vraiment pas facile... Quelques expériences peuvent démontrer, avec beaucoup de patience, une influence anormale de certains backlinks sur les classements (inexplicables par l'algo classique). Il y'a tellement de paramètres que seule des méthodes statistiques sur de nombreuses pages de sites différents pourraient donner un commencement d'idée... Surtout qu'à mon avis, si filtre à PR biaisé il y'a, il n'est pas appliqué partout...
 
WRInaute impliqué
herveG a dit:
Cela dit, je ne m´etais pas posé la question à ce moment là , ca pourrait donc valoir le coup que quelqu un qui vient juste de proposer sont site sur DMOZ fasse un état des lieu de son positionnement aujourd´hui, puis a l inscription DMOZ, puis a la MAJ du google directory et enfin lorsque les resultats google prendront en compte les infos du directory.
C'est mon cas pour un sous-répertoire , qui une fois que MyWRI m'a indiqué sa catégorie , a progressé de manière phénoménale sur certaines requêtes .
Sur la requête rpg mods il apparaissait en treizième position voilà trois jours , et en troisième aujourd'hui , sans que je n'apporte de modifications.
Pour info le site en première position est aussi dans cette catégorie DMOZ , mais est premier depuis un moment.
 
WRInaute accro
en plus tu es troisieme.... sans avoir els termes dans ton title ni dans ton url.... ce qui pourrait renforcer l´idée du BL.
 
Discussions similaires
Haut