TrustBox et stratégies de liens

Olivier Duffez (admin)
Membre du personnel
C’est dans l’air du temps : le terme TrustRank va sans doute bientôt remplacer le fameux Sandbox. Voilà pourquoi certains parlent désormais de TrustBox !

Todd par exemple a indiqué récemment qu’il n’y a pas de sandbox mais plutôt une trustbox.

Je parlais hier du lien entre Sandbox et TrustRank.

Rappel : le TrustRank est un terme d’un algorithme de chercheurs chez Yahoo, pas chez Google…

Danny évoquait les nouveaux réseaux de confiance qui peuvent être utilisés par les moteurs de recherche pour analyser dans quel réseau (de liens) est situé un site. Plus récemment, il a synthétisé l’évolution de la prise en compte des liens dans les algorithmes des moteurs de recherche :
  • au début, les moteurs donnaient autant d’importance à chaque lien : pour réussir, il fallait donc simplement avoir le plus de liens possibles
  • ensuite, les moteurs ont accordé plus d’importance aux liens issus des pages populaires (via le PageRank) : pour réussir, il fallait donc obtenir le plus de liens possibles issus de pages les plus populaires possible
  • maintenant, les moteurs analysent le degré de confiance d’un site, en se basant d’une part sur une liste de sites dits de confiance par des humains et d’autre part sur l’analyse des réseaux de liens : pour réussir, il faut obtenir des liens issus de sites de confiance
Massa, un spécialiste du référencement, donnait son avis récemment dans Threadwatchà propos de ces histoires (légendes ?) de sandbox. D’après lui, si un site qui vient d’être mis en ligne obtient un lien le même jour de sites comme MSNBC ou CNN, alors immédiatement il aura de très bons positionnements pour de nombreux termes (car les liens obtenus de ces sites de confiance lui ont conféré immédiatement un bon indice de confiance). Mais si ce même site récupère des dizaines de milliers de liens issus de splogs ou autres sites de spam, alors il tombera très vite dans les oubliettes de Google, qui aura pour ainsi dire « perdu confiance en lui »…

Martinibuster clamme la mort du « link development »… enfin pas tout à fait, il pense qu’il faut revenir à des liens « naturels ».

Aaron Wall fait le point sur ce qu’il appelle justement le Google Trustbox (j’ignore si c’est lui qui a inventé ce terme).

Avec cette notion de confiance que l’on retrouve un peu partout, les stratégies d’échanges de liens doivent absolument être revues. Comment rentrer dans cette Trustbox ? :) Peut-être faudrait-il simplement faire comme si les moteurs n’existaient pas, et redevenir un peu plus naturel ? Le débat est lancé, à vous la parole !
 
WRInaute passionné
Je trouve ce nouveau moyen que gg emploierai pour le classement des site interressant et surtout beaucoup plus juste, et beaucoup plus fiable.

De ce fait, un site n'est plus "sandboxé", mais pas encore dans la trustbox, ce qui change beaucoup de choses je trouve.

En effet, un webmaster ne pourra s'en prendre qu'a lui si sont site est pourrit et si aucun site de qualité (donc avec un fort PR (entre autre) ) ne veux faire de lien vers lui.

Bref, pour ma part, c'est un pas en avant dans le domaine du positionnement google, et pas, comme certains doivent le penser "encore un filtre pour embeter les webmaster"
 
WRInaute occasionnel
""Mais si ce même site récupère des dizaines de milliers de liens issus de splogs ou autres sites de spam, alors il tombera très vite dans les oubliettes de Google, qui aura pour ainsi dire "perdu confiance en lui"...""
ben suffit d'ajouté des liens pourrit pour les nouveaux sites de vos concurrents sur des sites de spam et le tour et joué !
bien vu google !
 
WRInaute passionné
marinelo a dit:
""Mais si ce même site récupère des dizaines de milliers de liens issus de splogs ou autres sites de spam, alors il tombera très vite dans les oubliettes de Google, qui aura pour ainsi dire "perdu confiance en lui"...""
ben suffit d'ajouté des liens pourrit pour les nouveaux sites de vos concurrents sur des sites de spam et le tour et joué !
bien vu google !

Tu connais google, l'algo est super complet et complex, et d'apres moi en constante amélioration!

C'est comme certain qui dise, que le fait de soumettre 60 000 fois son site a google via la page "addurl" peut etre pénalisant...

Je pense que si cette théorie se vérifie par la suite, on constatera que google prend en compte l'effet bénéfique en priorité!


haderach a dit:
On revient enfin à des bonnes bases et à un internet clean...

Comme au bon vieux temps.

+1 (+12 meme)
 
WRInaute passionné
marinelo a dit:
ben suffit d'ajouté des liens pourrit pour les nouveaux sites de vos concurrents sur des sites de spam et le tour et joué !
bien vu google !

+1
On parle bc de SandBox, TrustRank, TrustBox... etc.
A rajouter sur la TODO list des développeurs de Google :
- Blacklister les farmlinks, splogs et autres spamlinks center.
 
Olivier Duffez (admin)
Membre du personnel
et si l'ajout de milliers de liens sur des splogs vers un concurrent était totalement neutre pour Google ? Facile à dire, c'est vrai, car il faut que Google détermine si un site est spam ou rien de spécial ou super-trust.
Mais on peut imaginer qu'un site ne progresse que s'il reçoit des liens de confiance. Et qu'il ne baisse pas s'il reçoit des liens pourris.

Enfin j'espère...
 
WRInaute impliqué
Alors comment déterminer si tel ou tel annnuaire est une référence ?
Parce que avant on disait inscrit ton site dans les annuaires et meilleur sera ton réf. Ok mais maintenant la donne change. Serait-ce la mort des annuaires et encore plus des annuaires d'annuaire ?
 
WRInaute accro
Avoir des liens pourris peut aussi etre neutre dans ce rapport de confiance : déjà google ne nous montre que certaines backlinks, il pourrait ne nous donner à l'avenir que les bl de sites à fort trustrank.
La difficulté va etre pour un site de gagner cette confiance seul dans son coin ça va etre dur, d'où les recherches de partenaires de qualité et des annuiares aussi de qualité.
 
WRInaute accro
nom de domaine acheté, ancienneté, mise à jour, contenu augmentant, un peu de nouvelles pages, courbe croisante doucement de liens...etc les paramètre de la confiance peuvent etre nombreux. (on dirait une recette de cuisine ;) )
 
WRInaute discret
Si je me permets un résumé rapide, nous en venons à une prime à l'ancienneté. Car un site de "confiance" ne pourra être qu'un site ancien.

Aussi, nous entrons dans une nouvelle forme de système pyramidale. Si avant, une masse de petits sites pouvaient en pousser un autre de bas en haut, aujourd'hui, il faut que ce soit les sites d'en haut qui tirent l'un d'eux situés plus bas.
 
WRInaute passionné
WebRankInfo a dit:
Mais on peut imaginer qu'un site ne progresse que s'il reçoit des liens de confiance. Et qu'il ne baisse pas s'il reçoit des liens pourris.

Enfin j'espère...

zimounet a dit:
Je pense que si cette théorie se vérifie par la suite, on constatera que google prend en compte l'effet bénéfique en priorité!

:roll:
 
WRInaute passionné
narayana a dit:
Alors comment déterminer si tel ou tel annnuaire est une référence ?
Parce que avant on disait inscrit ton site dans les annuaires et meilleur sera ton réf. Ok mais maintenant la donne change. Serait-ce la mort des annuaires et encore plus des annuaires d'annuaire ?

Pourquoi ?
Au contraire, a mon avis, c'est plutot le retour en force des annuaires.
Mais, les vrais annuaires.
Pas le nieme PhpMyAnnu, ou toute dernière TopList qui délivre pour la nieme fois le même contenus sans aucune valeur ajoutée pour l'internaute.
Mettre en place un annuaire ça demande un vrai boulot...
 
WRInaute passionné
echanges-liens a dit:
Si je me permets un résumé rapide, nous en venons à une prime à l'ancienneté. Car un site de "confiance" ne pourra être qu'un site ancien.

Aussi, nous entrons dans une nouvelle forme de système pyramidale. Si avant, une masse de petits sites pouvaient en pousser un autre de bas en haut, aujourd'hui, il faut que ce soit les sites d'en haut qui tirent l'un d'eux situés plus bas.

Meme si ta remarque est pertinante, tu résonne par rapport au classement et a l'indexation déjà faite!

Alors que le systeme est fait pour privilégier les site de qualité:


Un site de qualité mal référencé aura des facilité a faire des échange de lien avec d'autres site de qualité de son theme

a l'inverse

Un site pourrit, avec un contenu pauvre, sans qualité aura peine a faire des échanges de lien avec des sites de qualité du meme theme


Donc je trouve qu'au niveau des performance du classement, c'est quelque chose de bien mieux pensé que la sandbox.

De plus, un site de confiance ne pourra etre qu'un site ancien, et à juste titre!

En effet, comment veux tu qu'un robot juge pertinant un site dès sa sortie?
 
WRInaute impliqué
Voici mon avis :

citation
le terme TrustRank va sans doute bientôt remplacer le fameux Sandbox

Comme je le mentionnais dans la discussion d'hier, je ne suis pas du tout d'accord, le Trustrank n'est simplement qu'un critère dans la sandbox, comme le critère évolution des bl ou ancienneté des bl ... il ne remplace pas la sandbox il en fait parti.

citation
maintenant, les moteurs analysent le degré de confiance d'un site

tout à fait d'accord, il suffirait d'analyser quelques milliers de sites dans les catégories de dmoz par exemple pour établir le trustrank.

citation
liens issus de splogs ou autres sites de spam, alors il tombera très vite dans les oubliettes

pas d'accord, le coeff ne doit être que positif, les "mauvais liens" ne seront tout simplement plus comptabilisés par exemple.


Effectivement il faut envisager pour les "mangeurs de liens" de calmer le jeu, et de faire comme on doit tous faire, faire des liens de qualité sur des sites de qualité et non pas dans le seul but de faire des BL !
 
WRInaute impliqué
Bjr,

je ne suis pas un specialiste et je prends cette discution en cours.

Mais alors pourquoi un site de dit de confiance ferait un lien vers nos sites ?
Autant ne pas en faire du tout et il garde son monopole, d'autant plus que si notre site est vraiment interressant, il pourrait lui faire de l'ombre.

Le site de confiance, n'a aucun interet ds ce cas. A moins peut etre de faire des liens vers des sites n'ayant aucun rapport avec lui .......
 
WRInaute occasionnel
l'étau semble se resserrer autour des sites de liens de sites de liens, ou de sites d'annuaires d'annuaires d'annuaires... Les nouveaux petits sites auront un mal fou à exister... et les sites existants ont intérêt à ne pas faire de fautes de carres...
 
Olivier Duffez (admin)
Membre du personnel
juste un détail caro : ce n'est pas moi qui ai dit "liens issus de splogs ou autres sites de spam, alors il tombera très vite dans les oubliettes", c'est l'avis d'une personne dont je parle dans mon billet.

je précise ça car je suis d'accord avec toi, d'ailleurs je l'ai dit page 1, car sinon on pourrait nuire à un concurrent en lui faisant des liens.

bgdc, je pense que pour être classifié site de confiance, il faut faire des liens (sortants). Un site "normal" fait des liens sortants, c'est la nature du web. Un site qui n'en fait pas est un site louche (et il y en a bcp...)
 
WRInaute occasionnel
Pour l'instant tous n'est que spéculation , car moi pour l'instant je vois dans l'indice YooVi: L'indice de mesure de visibilité 3 sites avec bonne popularité qui spam google depuis des mois !
et google n'arrive pas à le voir ou fait l'aveugle, donc avant que le
TrustBox vois le jour?
il à déjà du mal avec des spams des années 1999 il ferais mieux de réglé des truc facile avant de voir des méthodes sophistiqué sinon c'est même pas la peine !
sans compter que les plus gros spammeurs en ce moment et bien c'est des sites de confiance p-----j - me----t-i- ...... qui profite de leur notoriété de leur vitrine pour spammé sur leurs pages secondaires .
ouvrez les yeux !
 
WRInaute impliqué
spidetra a dit:
narayana a dit:
Alors comment déterminer si tel ou tel annnuaire est une référence ?
Parce que avant on disait inscrit ton site dans les annuaires et meilleur sera ton réf. Ok mais maintenant la donne change. Serait-ce la mort des annuaires et encore plus des annuaires d'annuaire ?

Pourquoi ?
Au contraire, a mon avis, c'est plutot le retour en force des annuaires.
Mais, les vrais annuaires.
Pas le nieme PhpMyAnnu, ou toute dernière TopList qui délivre pour la nieme fois le même contenus sans aucune valeur ajoutée pour l'internaute.
Mettre en place un annuaire ça demande un vrai boulot...

Tu en connais beaucoup toi des annuaires de qualité ? :lol:
A part la 5 ou 6 pertinent le reste n'est qu'un dépot de bl pas plus.
Enfin c'est ce que je pense.
 
WRInaute passionné
narayana a dit:
Tu en connais beaucoup toi des annuaires de qualité ? :lol:

Cela fait très longtemps que je n'ai pas soumis un site à un annuaire :)
Pour moi un bon annuaire est un annuaire thématique et spécialisé.
Il ne sert à rien de multiplier les annuaires généralistes.

Edité suite au message d'échanges-liens :)

Un exemple d'annuaire de qualité spécialisé dans la musique :
-annuaire-musique.narayana.fr
Il existe certainement des dizaines d'exemple de ce genre spécialisé par métier ou secteur d'activité.

Je n'avais pas regardé ta signature narayana, mais par ton travail tu illustre ce que doit-être un annuaire de qualité
 
WRInaute discret
Tu en connais beaucoup toi des annuaires de qualité ?

Le vôtre peut-être ? (votre annuaire musical, pas mal positionné dans Google d'ailleurs)

Si une sélection doit se faire, on peut espérer que les meilleurs annuaires se positionneront, les autres disparaîtront. Pourquoi s'en faire ?
 
WRInaute passionné
Si vous vous souvenez bien il y a quelques mois on parlait déja de trustrank suite au dépôt d'un brevet sur le sujet. En résumé, il était expliqué par des matheux comment, sans explorer l'intégralité du net, on pouvait à partir d'une partie seulement des sites du web, déterminer des réseaux de liens de confiance. Avoir des BL dits "pourris" n'empéche pas d'apartenir à un ou plusieurs réseaux de liens dits de confiance.

Pour ceux qui se demandent comment savoir si on appartient à un tel reseau, utilisez un moteur graphique du type de Kartoo ou google touchgraph

Cela peut donner une idée de votre ou vos réseaux de liens et/ou bien de savoir avec qui faire des liens! :wink:
 
WRInaute passionné
WebRankInfo a dit:
bgdc, je pense que pour être classifié site de confiance, il faut faire des liens (sortants). Un site "normal" fait des liens sortants, c'est la nature du web. Un site qui n'en fait pas est un site louche (et il y en a bcp...)

A ce propos, existe-t-il un outil qui permette de calculer le nombre de liens sortants d'un site?

Il pourrait-être interressant de comparer ce chiffre au nombre de lien entrants.... :idea:
 
WRInaute accro
WebRankInfo a dit:
et si l'ajout de milliers de liens sur des splogs vers un concurrent était totalement neutre pour Google ? Facile à dire, c'est vrai, car il faut que Google détermine si un site est spam ou rien de spécial ou super-trust.
Mais on peut imaginer qu'un site ne progresse que s'il reçoit des liens de confiance. Et qu'il ne baisse pas s'il reçoit des liens pourris.

Enfin j'espère...


J'espère aussi ça serait plus juste!

En tout cas si tout cla est vrai, l'art du référencement est en pleine révolution car la il ne va pas falloir des gens qui soient capable d'inscrire des sites partout mais plutôt des gens qui négocient avec des sites interessants.
 
WRInaute impliqué
"SI la TrustBox existe", elle ne doit pas s'appliquer à tout le monde, car lorsqu'on voit encore certaines requêtes, rempli de sites de même domaine, juste avec le sous domaine qui change, et ce sur plusieurs pages ... à moins on ne sait jamais que cnn a bien voulu faire des liens vers ceux-ci :lol:
 
WRInaute passionné
Vraiment interessant cette notion de Trustrank rapprochée de celle de Sandbox.
Pour revenir sur la relation du nombre de backlinks, de la qualité des backlinks et la Sandbox, je voudrait rappeler à Caro et Olivier que la Sandbox est bien une pénalité. Elle dépasse la simple ignorance de liens de mauvaises qualité et/ou trop nombreux.

Exemple avec un site lancé il y a un mois :
Je préviens le client que je vais opérer de l'échange de lien pas à pas pour éviter la Sandbox. Ce que je fais.
Parralèllement, il passe des partenariats avec plusieurs portails professionnels, obtenant par là même quelques beaux backlinks.
Un de ses portails lui met une bannière sur toute ses pages avec un lien en dur. Ces pages sont très nombreuses ont toutes un PR4.
Résultat, en 3 semaines Google lui trouve 270 backlinks et Yahoo 5.550 !
Immanquablement, le site tombe en Sandbox, c'est à dire qu'il ne sort pas sur des combinaisons de 7-8 mots clés très spécifiques.

Mes conclusions :
1- la sandbox reste une pénalité (et non une simple oubli de backlinks)
2- Un portail professionnel et spécialisé de PR4 agé de plusieurs années ne serait pas nécessairement un site de confiance
 
WRInaute passionné
Bon, à mon tour... :)

La première chose que je me suis dit, c'est "Cool, j'ai jamais perdu de temps à courrir après les BL, voilà une bonne chose." Et puis...

On ne peut qu'imaginer ce que pourrait être ce nouvel algo ce classement pertinant des sites, mais l'imaginaire fait parfois flipper.

Je pense que pour être digne de confiance, il faut du contenu, peut-être une qualité de codage, preuve d'exigence et bien sur faire profter les autres site de sa renommé. e tout souppoudré d'adsence afin de faire connaitre à GG le nombre de page vue et le tour est joué.

Si ça ne tenais qu'à ça, pas de problème, mais qu'en est-il si GG n'a aucun moyen de connaitre notre nb de visiteur, si je ne met pas mon site aux norme "HTML", pire, si je fais un super site, sans en faire profoter les autres ?
Imaginons simplement un organisme qui publie une foule d'information sur un sujet, mais que la conception du site n'est pas leur priorité face aux données et que il le publie à des fin de diffusion sans pour autant faire des liens vers d'autres sites. Serait-il sanctionné et ainsi invisible sur les moteurs ?

Les webmasters savent s'adapter, c'est souvent chiant et fastidieux, mais ils le fond. D'un autre coté, trouver le bon algo pour sortir pour chaque requête LE SITE qui va répondre à nos attente... C'est pas demain la veille, il faut donc évoluer, et GG le fait.
Mais là, j'ai un doute sur le TrustRank.

De plus, cela va accroitre le prix des BL :twisted:
 
WRInaute discret
MagicYoyo a dit:
Vraiment interessant cette notion de Trustrank rapprochée de celle de Sandbox.
Pour revenir sur la relation du nombre de backlinks, de la qualité des backlinks et la Sandbox, je voudrait rappeler à Caro et Olivier que la Sandbox est bien une pénalité. Elle dépasse la simple ignorance de liens de mauvaises qualité et/ou trop nombreux.

Exemple avec un site lancé il y a un mois :
Je préviens le client que je vais opérer de l'échange de lien pas à pas pour éviter la Sandbox. Ce que je fais.
Parralèllement, il passe des partenariats avec plusieurs portails professionnels, obtenant par là même quelques beaux backlinks.
Un de ses portails lui met une bannière sur toute ses pages avec un lien en dur. Ces pages sont très nombreuses ont toutes un PR4.
Résultat, en 3 semaines Google lui trouve 270 backlinks et Yahoo 5.550 !
Immanquablement, le site tombe en Sandbox, c'est à dire qu'il ne sort pas sur des combinaisons de 7-8 mots clés très spécifiques.

Mes conclusions :
1- la sandbox reste une pénalité (et non une simple oubli de backlinks)
2- Un portail professionnel et spécialisé de PR4 agé de plusieurs années ne serait pas nécessairement un site de confiance

Bonjour magic yoyo,
Comment peux tu être sur que la sandbox vienne de ce site professionnel?

J'ai eu l'experience et je ne suis pas le seul sur ce forum à être tombé en sandbox avec seulement 2 ou trois échange de liens(pour un nouveau site)
 
WRInaute passionné
Ouep... pas faux.
La position communément admise ici jusqu'alors est que a mise en Sandbox est due à une croissance anormale du nombre de backlinks.

J'en suis effectivement pas fondamentalement convaincu. Peut-être que la nature des backlinks est prépondérante... :roll:
 
WRInaute occasionnel
WebRankInfo a dit:
Un site "normal" fait des liens sortants, c'est la nature du web. Un site qui n'en fait pas est un site louche (et il y en a bcp...)
A bon :lol:
tu prend les plus gros sites en France il ne fond pas de liens sortants et ne sont pas louche pour la majorité .
ou à tu étais cherché ce truc ? :?:
la majorité des gros sites fond des liens en JavaScript ou se fond quelques liens entre eux .
comme y sont déjà site de confiance , ben y monte un réseau de liens de sites de confiances . :lol:
et bientôt il vendrons des liens dur au mois :twisted: tu vois ce que je veux dire.
si un site de confiance te vend un lien 500€ mois et ben tu devient site de confiance ! :?: :idea:
 
WRInaute passionné
Il faut oublier tout ce qu'on sait et repartir sur de nouvelles bases.
En attendant, les fondamentaux du réf marchent toujours, même si c'est moins efficace sur le court terme il me semble que c'est valide sur le long terme.
 
WRInaute impliqué
Pourquoi ?
Au contraire, a mon avis, c'est plutot le retour en force des annuaires.
Mais, les vrais annuaires.
Pas le nieme PhpMyAnnu, ou toute dernière TopList qui délivre pour la nieme fois le même contenus sans aucune valeur ajoutée pour l'internaute.
Mettre en place un annuaire ça demande un vrai boulot...

Oui je confirme que cela demande un vrai boulot avec mon annuaire www.annuaire-philatelie.com j'au dus attendre 12 mois pour être en 1er page sur le mot philatélie

Mais comment savoir quel site est n’est pas de confiance, et que faire si un site en référencer sur des centaines de petit annuaire.
 
WRInaute passionné
thickparasite a dit:
Il faut oublier tout ce qu'on sait et repartir sur de nouvelles bases.
En attendant, les fondamentaux du réf marchent toujours, même si c'est moins efficace sur le court terme il me semble que c'est valide sur le long terme.

J'ai l'impression que les critères de positionnement de Google privilégie de plus en plus les sites informatifs au détriment... des sites marchands (qui par nature ont un contenu moins textuel).
Stratégie volontaire pour diriger les sites marchands vers les liens commerciaux ? J'ai bien peur que oui...
 
WRInaute impliqué
C’est l’impression que j’ai aussi. Si l’on réfléchit bien a la nature du net, il ai et il restera un énorme réseau ou se côtoie sites informatifs (association étude personnelle sur tel ou tel sujet) marchant et priée (intranet, etc..)

Pourquoi placer en 1er pages d’une recherche des sites marchands ?
Peut que si google nous proposait une option afficher les sites marchands serai un plus pour mieux cibler notre recherche.
 
WRInaute passionné
Je suis d'accord avec toi, mais ne pensez-vous pas que GG favorise les sites de contenu; et ce faisant repousse les sites marchands plus loin dans l'index ?
 
WRInaute discret
Le trustrank va faire mal à tous ces service de SEO et annuaires dupliqué.... Je vais commencer à regretter mes soumissions de site dans ces services gratuits de référencement.
 
WRInaute passionné
chantra a dit:
Le trustrank va faire mal à tous ces service de SEO et annuaires dupliqué.... Je vais commencer à regretter mes soumissions de site dans ces services gratuits de référencement.

les annuaires dupliqués vont plutot être pénalisés par des algo de SpamLink détection, surtout si les annuaires sont fortement connectés entre eux.
a mon avis, cela ne rentre pas dans la même catégorie que le TrustRank.
 
WRInaute passionné
MagicYoyo a dit:
Je suis d'accord avec toi, mais ne pensez-vous pas que GG favorise les sites de contenu; et ce faisant repousse les sites marchands plus loin dans l'index ?

Si tu veux, c'est pas forcément antinomique. Si tu veux vendre à distance (par Internet ou non), il vaut mieux que tu donnes un maximum d'information à l'acheteur potentiel. Celui-ci ne peut pas toucher le produit, il s'agit donc de décrire celui-ci sous toutes les coutures.

Un bon site marchand regorge d'info, c'est à dire de contenu digeste pour les moteurs.
 
WRInaute accro
MagicYoyo a dit:
Peut que si google nous proposait une option afficher les sites marchands serai un plus pour mieux cibler notre recherche.


Ah ouiiis, serais premier sur quasiment toutes mes requêtes :lol: , marre d'être chaque fois trentième :twisted:
 
WRInaute passionné
Que pensez-vous des propositions suivante à propos du TrusRank et de la Sandbox :
- la Sandbox est une pénalité
- la Sandbox correspond à la durée que met un site à atteindre un certain niveau de confiance et/ou de popularité
- l'unité du PageRank est la page, l'unité du TrustRank est le site.
- des liens provenant de sites de confiance et/ou de popularité permettent d'atteindre le(s) niveau(x) requis
- on ne sait pas si certains évènements, comme des "backlinks de mauvaise qualité" peuvent dégrader l'indice de confiance d'un site.


Au cours de la vie d'un site, d'autres critères viennent enrichir l'indice de confiance d'un site (TrustRank) :
- ancienneté du nom de domaine
- date de 1ère indexation de la page
- age des backlinks (?)
 
WRInaute impliqué
la Sandbox est une pénalité

Non, pas au sens propre. Cela fait longtemps que je crois que la Sandbox n'existe pas en tant que tel, et n'est qu'un effet de bord dû à la combinaison de différents filtres, notes et autres algos empilés par Google, et il me semble que cette version est aujourd'hui confirmée.

la Sandbox correspond à la durée que met un site à atteindre un certain niveau de confiance et/ou de popularité
Trop simple. Ce n'est pas qu'une histoire de confiance et de popularité. C'est un effet multifactoriel, ces critères en faisant partie.

l'unité du PageRank est la page, l'unité du TrustRank est le site.
C'est faux. Le Trustrank est une note donnée à une page. Elle dépend d'autres notes attribuées à une page. Seule la root list, les "seeds" sont probablement une liste de sites.

des liens provenant de sites de confiance et/ou de popularité permettent d'atteindre le(s) niveau(x) requis
C'est nécessaire. Pas forcément suffisant. Pour le Trustrank, qui est un algorithme itératif, la structure des liens entre sites de confiance à son importance.

on ne sait pas si certains évènements, comme des "backlinks de mauvaise qualité" peuvent dégrader l'indice de confiance d'un site.
Si j'en crois les articles de Garcia Molina, si, on sait.
 
WRInaute passionné
Tout d'abord, merci de ces réponses que j'ai étudié précieusement. Mais j'en veux plus !

cariboo a dit:
la Sandbox est une pénalité
Non, pas au sens propre. Cela fait longtemps que je crois que la Sandbox n'existe pas en tant que tel, et n'est qu'un effet de bord dû à la combinaison de différents filtres, notes et autres algos empilés par Google, et il me semble que cette version est aujourd'hui confirmée.
Effet volontaire ou induit; Je crois que la conséquence de l'effet Sandbox est bien une dégradation du positionnement du site. Il s'agit d'un effet négatif. C'est une note négative affectée à une page, pas une note nulle. Cet effet est assez puissant pour exclure une page des résultats pour une requête très précise et particulière pour laquelle elle est pourtant "sexy".


cariboo a dit:
la Sandbox correspond à la durée que met un site à atteindre un certain niveau de confiance et/ou de popularité
Trop simple. Ce n'est pas qu'une histoire de confiance et de popularité. C'est un effet multifactoriel, ces critères en faisant partie.
Pourais-tu développer succintement ?

cariboo a dit:
l'unité du PageRank est la page, l'unité du TrustRank est le site.
C'est faux. Le Trustrank est une note donnée à une page. Elle dépend d'autres notes attribuées à une page. Seule la root list, les "seeds" sont probablement une liste de sites.
J'en suis pas si sur. Le TrustRank se propage via les liens et donc se transmet via les pages. Mais rien ne dit que GG ne fasse pas une moyenne des notes de TrustRank reçues par un site. Il y a plus de logique à considérer le spam à l'échelle d'un site qu'à l'échelle d'une page.

cariboo a dit:
des liens provenant de sites de confiance et/ou de popularité permettent d'atteindre le(s) niveau(x) requis
C'est nécessaire. Pas forcément suffisant. Pour le Trustrank, qui est un algorithme itératif, la structure des liens entre sites de confiance à son importance.
Si je comprends bien, à l'instar du PageRank, le TrustRank est aussi affecté par la "qualité" des liens (position dans la page, profondeur du lien, réciprocité des liens, thématique des pages liées, texte de l'ancre[?]...)

cariboo a dit:
on ne sait pas si certains évènements, comme des "backlinks de mauvaise qualité" peuvent dégrader l'indice de confiance d'un site.
Si j'en crois les articles de Garcia Molina, si, on sait.
Tu as raison, c'est l'essence même du TrustRank. Mais il faut aussi envisager la possibilité qu'il y ait des écarts entre les solutions proposées par les chercheurs dans leur publications et ce qui à été implémenté dans l'algo de Google.
 
WRInaute impliqué
Effet volontaire ou induit; Je crois que la conséquence de l'effet Sandbox est bien une dégradation du positionnement du site. Il s'agit d'un effet négatif. C'est une note négative affectée à une page, pas une note nulle. Cet effet est assez puissant pour exclure une page des résultats pour une requête très précise et particulière pour laquelle elle est pourtant "sexy".

Tu as raison : il y'a un effet de seuil, au delà duquel la page est classée "spammy". En deça de ce seuil, la "pénalisation" n'est qu'un recul dans les positions sur les pages de résultat.

Pourais-tu développer succintement ?
Succinctement cela va être très dur... Disons que pour bien se classer dans Google, pour un nouveau site, recevoir des liens de "sites de confiance" est utile, mais ni nécessaire ni suffisant, que la popularité n'est nécessaire que si la requête est concurrentielle, et que je n'ai jamais vu de confirmation réelle qu'il y'avait un facteur du genre : je ne met pas en tête de résultats un site qui a moins de six mois. Le critère d'âge existe peut-être, mais sûrement très pondéré par autre chose, car des sites nouveaux peuvent scorer "haut" dans google.

J'en suis pas si sur. Le TrustRank se propage via les liens et donc se transmet via les pages. Mais rien ne dit que GG ne fasse pas une moyenne des notes de TrustRank reçues par un site. Il y a plus de logique à considérer le spam à l'échelle d'un site qu'à l'échelle d'une page.
Non. Les moteurs recherchent à enlever des pages "spammy". Pas des sites. Car un même site peut contenir à la fois des pages "normales" et des pages de "spam". Mieux vaut éviter le "délit de sale gueule" en se privant de pages pertinentes : où alors, toutes les pages en blogspot.com sont à virer ;)

Si je comprends bien, à l'instar du PageRank, le TrustRank est aussi affecté par la "qualité" des liens (position dans la page, profondeur du lien, réciprocité des liens, thématique des pages liées, texte de l'ancre[?]...

Il est affecté par la structure des liens, point barre. C'est un rank comme un autre, calculé "à rebours",

Tu as raison, c'est l'essence même du TrustRank. Mais il faut aussi envisager la possibilité qu'il y ait des écarts entre les solutions proposées par les chercheurs dans leur publications et ce qui à été implémenté dans l'algo de Google.

Tu as raison d'être prudent là dessus. Mais si on part du principe qu'un Trustrank, même adapté, est utilisé par Google, alors, forcément, cela marche comme cela, car c'est le principe même qui est derrière l'algo.
 
WRInaute passionné
Tout ce que vous dites est bien joli, mais même si il y a surement beaucoup de vrais vous oubliez que google à un moyen trés simple et trés efficace de mesurer la "popularité" d'un site: Compter le nombre de click vers ce site dans ses pages de résultats. C'est une mesure trés objective.

De plus, avec la Google bar, il peut trés bien, cette fois par une analyse statistique, affecter un facteur de popularité à tel ou tel site.

Ceux qui utilisent le sitemap ont surement remarqué que Google leur propose des stats assez, disons surprenantes de la par d'un moteur de recherche. A votre avis, d'ou tire t'il ces stats! :wink:
 
WRInaute passionné
cariboo a dit:
mesure trés objective.

Cette mesure est assez connue également pour n'avoir rien à voir avec la pertinence de la page par rapport à une requête donnée.

Ah bon!?

Si je recherche quelquechose sur GG et que je clique ensuite sur un lien dans les pages de résultats ce n'est pas pertinent! Ell est bonne celle la! :lol:

Imagine qu'un site soit par exemple premier sur une requete et qu'il y ait deux fois moins de clics que sur le site qui est cinquième. Qu'en conclurais tu si tu étais GG? Moi j'en concluerais que ce site est peut être mieux référencé mais moins interessant et que l'autre semble bien plus interressant bien que moins bien référencé et j'agirais en concéquence.

Il faut arreter de penser en webmaster et se mettre à la place des internautes. En tant qu'internaute je me fou complétement de savoir si tel ou tel site est bien référencé, si il a sa place sur la première page de GG ou non! Je lit ce que je vois et si cela correspond à ce que je cherche je clique! Et lorsque je cherche je parcourt facilment 5 ou 6 pages de resultats et je ne clique pas sur tous les liens ni sur les mieux placés.

Si en mesurant le taux de click sur les pages de résultats on obtient pas un critére de pertinance des resultats proposés, je veux bien boufer un autre moceaux de mon avatar! :wink: (ça m'arrive quand je me suis trompé!) C'est exactement comme si tu me dis que l'avis des critiques est plus important que celui du public en matière de cinéma, literature ou autre!

Elle est bonne celle-la! :lol:
 
WRInaute impliqué
Là où tu as raison c'est que compter les clics sert à améliorer l'algo, Google le fait comme tous les moteurs grand publics. C'est ce qu'on appelle une expérience de retour de pertinence par l'utilisateur.

Mais quand je cherche "jaguar" dans un moteur de recherche, je ne cherche pas à obtenir les pages les plus cliquées qui parlent de jaguar, mais bien les pages qui sont les plus "en rapport" avec la requête jaguar.

La pertinence de la réponse n'est donc pas une question de fréquentation des pages. Sinon, on ne verrait que les pages de MSN en tête des résultats des moteurs.
 
WRInaute passionné
cariboo a dit:
Mais quand je cherche "jaguar" dans un moteur de recherche, je ne cherche pas à obtenir les pages les plus cliquées qui parlent de jaguar, mais bien les pages qui sont les plus "en rapport" avec la requête jaguar.

Ben, peut-être que les pages les plus pertinentes pour "jaguar" sont celles qui ont été le plus souvant cliquées dans les pages de resultats de GG sur cette requete!

SI je devais faire un moteur de recherche, je me servirais de ce critère en tout cas! Un internaute est toujours plus indiqué qu'un robot ou un algorithme pour déterminer la pertinance du résultat de sa recherche.
 
WRInaute passionné
fandecine a dit:
Imagine qu'un site soit par exemple premier sur une requete et qu'il y ait deux fois moins de clics que sur le site qui est cinquième. Qu'en conclurais tu si tu étais GG?
Je suis plutôt d'accord avec Cariboo. Je concluerai que la description (snipet) proposée pour le second est plus percutante que celle choisie pour le premier.

L'internaute qui clique sur un résultat proposé par un moteur le fait à priori, en fonction de la description proposée et non en fonction du contenu réel de la page (puisqu'il ne le connait pas encore). Cela ne préjuge que peu la pertinence réelle de la page.
Je ne dis pas qu'il y a aucune correlation, mais elle me parait trop indirecte pour en tirer des indices de pertinence.
 
WRInaute discret
Bonjour à tous et merci pour vos contributions. Elles répondent à de nombreuses questions au sujet des modifications de l'algo de google.

Je suis d'accord avec Caribou et MagicYoyo. Le taux de clic ne peut pas vraiment être un critère de pertinence.
1. un site en 1ere position sera plus cliqué plus que l'internaute pense a priori que GG est fiable
2. une description attractive genre "voyage tahiti discount - appel gratuit ..." attirera sans doute plus que "voyage tahiti, séjour tahiti, croisiere tahiti" et aura plus de clics

Par contre, je me demandais, si Google utilisait les données issues de la google bar pour évaluer la pertinence d'un site Ex:
- temps passé sur le site = plus il est long, plus le site est intéressant
- taux de retour sur la page de résultat GG = plus il est élevé, moins le site est pertinent ...

C'est sur qu'il faudrait déployer des algos de fous et avoir des machines tres puissantes mais qui sait ??
 
WRInaute passionné
MagiYoYo, tu raisonne comme un webmaster qui calcule la pertinence d'une page en comptant les occurances de mots dans cette page pas comme un internaute qui recherche un réponse à sa recherche!

Et c'est parceque les webmasters raisonnent comme cela que l'on est arrivé à des situations d'abus dans les techniques de référencement. Hors, il semble que GG ait décidé de faire la chasse à ses pratiques en introduisant un facteur "'humain" dans son algo (trustrank, visite des sites par des humain etc...) et ce que je dis me semble être un des critères utilisé par GG. :D
 
WRInaute passionné
mia_mi a dit:
Il est en effet, facile de mettre du contenu attractif dans la balise description pour améliorer le taux de clic, un peu comme quand on rédige les pub adwords ?

Oui c'est facile mais:

1/ c'est difficile de concilier mots cles dans le titre de page et titre atrayant
2/ c'est google qui décide de ce qu'il affiche pour décrire ta page, et pas le webmaster du site!

Quand à la google bar ou autre alexa bar, yahoo bar elles sont bien entendu la pour analyser les habitudes des internautes!

Si certains de vous ont déjà eu accés à des statistiques de visites qualitative comme Xiti Pro ils comprendrons ce que je veux dire!

Médiametrie utilise un echantillon de foyer auquels il donne une zapette pour étudier leurs habitudes en matière de télévision et qualifier ainsi l'audiance des programmes. Sur le net, les zapettes c'est les "machin bar" et autres!

Ne le dites pas mais on nous espionne! :wink:
 
WRInaute passionné
fandecine a dit:
MagiYoYo, tu raisonne comme un webmaster qui calcule la pertinence d'une page en comptant les occurances de mots dans cette page pas comme un internaute qui recherche un réponse à sa recherche!

Si tu dis ça parce que je suis les propos de Cariboo, je crois que tu n'est pas très objectif. C'est un très fin connaisseur des moteurs de recherche.
Et je suis sur que la lecture de ses articles sur la sémantique appliquée aux moteurs de recherche et ses traductions de publications sur l'analyse thématique te convaincrons qu'il existe d'autres solutions plus pertinentes que ce que tu proposes.
 
Olivier Duffez (admin)
Membre du personnel
autant je suis d'accord que la fréquence des clics dépend surtout de la position du résultat et de sa description (titre+snippet), autant je pense que l'information sur la durée du surf ou sur le fait qu'un internaute revient cliquer sur le 2eme résultat après avoir cliqué sur le 1er, est utilisable pour juger de la pertinence des pages (en gros, essayer de comprendre ce qu'en a pensé l'internaute).

le pb c'est que certains internautes tapent si mal leurs requêtes que c'est pas étonnant qu'ils aient besoin de cliquer sur plusieurs résultats avant de trouver ce qu'ils cherchaient vraiment...
 
WRInaute passionné
Je pense que la répartition des clics entre le 1er, le 2nd et ainsi de suite suit une loi statistique assez stable.
Si Google détecte une anomalie sur une requête particulière que peuvent-ils se dire ?
- Que les 1ers sites proposés ne sont pas pertinents, i.e. que leur classement n'est pas bon
- Que les descriptions sont mal générées
- Que les sites sont pertinents mais mal optimisés et donc avec une description peu représentative

Mais c'est typiquement du cas par cas... qui necessiterai/permettrai une évaluation manuelle de la pertinence du classement. Je ne crois pas à une correction automatique ou manuelle du classement sur ce critère.
 
WRInaute passionné
WebRankInfo a dit:
le pb c'est que certains internautes tapent si mal leurs requêtes que c'est pas étonnant qu'ils aient besoin de cliquer sur plusieurs résultats avant de trouver ce qu'ils cherchaient vraiment...

Ouaih! mais tant que les internautes seront si maladroits, il faudra bien que GG trouve des solutions. Je pense pas qu'il ait le bras si long qu'il puisse les forcer à taper des requettes qui l'arange. :wink:

MagicYoyo a dit:
Si tu dis ça parce que je suis les propos de Cariboo, je crois que tu n'est pas très objectif. C'est un très fin connaisseur des moteurs de recherche.
Et je suis sur que la lecture de ses articles sur la sémantique appliquée aux moteurs de recherche et ses traductions de publications sur l'analyse thématique te convaincrons qu'il existe d'autres solutions plus pertinentes que ce que tu proposes.

Je ne propose rien et je n'ai rien contre toi ou cariboo. :D . Je discute et je donne mon avis.

Je me mets à la place de GG. Si je devais faire faire un moteur de recherche, j'agirais de la sorte. Analyse sémentique ou pas, rien ne vaut un oeil humain pour ces choses là!
 
WRInaute discret
Caduc ,
le probleme c'est que les sites de qualités font rarement des liens vers d'autre sites gratuitement , si ils sont payés grace a ce liens alors il le feront plus facilement.
Donc un site pourri qui paye peut recuperer de bonne place , l'argent est roi !!
 
Nouveau WRInaute
je le découvre actuellement et c'est clair que la plupart des places sont déjà prises et faussent indubitablement la valeur des requêtes,par exemple si vous tapez climatiseur mobile sur google, les trois premières annonces, vous ne trouverez même pas un seul climatiseur sur ces pages, la quatrieme requete date du moyen age et nous pouvons nous apercevoir dans ce fichier source (eclats antivol ...) du nombre incroyable de mots cles caché dans cette page ...
Puis ensuite viennent les pseudo comparateurs de prix, qui sont attachés commercialement avec deux ou trois magasins, ce qui réduit le choix pour les malheureux moutons que nous sommes, c'est pas pour encore la pluralité, le choix et la clarté pour les pauvres internautes que nous sommes.
 
WRInaute accro
Spidetra a dit:
c'est quoi un wiki sanbdoxes ?
Le wiki est livré avec une sandbox, un bac à sable où les utilisateurs peuvent s'exercer aux subtilités de l'édition des messages. C'est très pratique.
 
Nouveau WRInaute
Je trouve cela très mauvais dans la mesure où le temps mort pour obtenir des visiteurs devient trop long.

Peu importe la qualité du site, lancer un nouveau site deviendra plus de peine que de bonheur.

Considerer qu'un site "nouveau" est moins important est tout simplement un nouveau type de discrimination.

De plus je doute qu'on retourne au Web propre dont certains parle.

Mauvaise augure ...
 
WRInaute accro
pocketmofo a dit:
Je trouve cela très mauvais dans la mesure où le temps mort pour obtenir des visiteurs devient trop long.

Peu importe la qualité du site, lancer un nouveau site deviendra plus de peine que de bonheur.

Considerer qu'un site "nouveau" est moins important est tout simplement un nouveau type de discrimination.

De plus je doute qu'on retourne au Web propre dont certains parle.

Mauvaise augure ...

Long, oui et non. Finalement, le nombre de requêtes par jours et par utilisateur doir rester relativement fixe dans le monde. Et le nombre de pages Internet doit augmenter plus vite que le nombre d'internautes.

Puis faut pas réver, les "vieux sites" ont une large partie de liens naturels que n'ont pas les nouveaux sites.
 
Nouveau WRInaute
Alors comment tirer vers le haut un site qui n'a rien à voir avec cnn, ou autres sites de confiance, ou l'on ne pourrait pas avoir de liens de chez eux pointant vers notre site ?
Cela ne deviendrait pas mission impossible pour n'importe quel petit site de se démarquer ?

Je vous donne pour exemple le site web de la boite dans laquelle je travaille, un site de confiance ne l'interesserait surement pas
 
Nouveau WRInaute
Lorsqu'on est webmaster on peut toujours signer la création d'un bon site (futursite de confiance) par un lien sur chacune des pages.
Sinon il reste les forums de discutions dans lesquelles on peut mettre un lien dans sa signature (si, sa existe encore!).
 
Discussions similaires
Haut