TrustBox et stratégies de liens

Discussion dans 'Techniques avancées de référencement' créé par WebRankInfo, 24 Novembre 2005.

  1. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 659
    J'aime reçus:
    433
    C’est dans l’air du temps : le terme TrustRank va sans doute bientôt remplacer le fameux Sandbox. Voilà pourquoi certains parlent désormais de TrustBox !

    Todd par exemple a indiqué récemment qu’il n’y a pas de sandbox mais plutôt une trustbox.

    Je parlais hier du lien entre Sandbox et TrustRank.

    Rappel : le TrustRank est un terme d’un algorithme de chercheurs chez Yahoo, pas chez Google…

    Danny évoquait les nouveaux réseaux de confiance qui peuvent être utilisés par les moteurs de recherche pour analyser dans quel réseau (de liens) est situé un site. Plus récemment, il a synthétisé l’évolution de la prise en compte des liens dans les algorithmes des moteurs de recherche :
    • au début, les moteurs donnaient autant d’importance à chaque lien : pour réussir, il fallait donc simplement avoir le plus de liens possibles
    • ensuite, les moteurs ont accordé plus d’importance aux liens issus des pages populaires (via le PageRank) : pour réussir, il fallait donc obtenir le plus de liens possibles issus de pages les plus populaires possible
    • maintenant, les moteurs analysent le degré de confiance d’un site, en se basant d’une part sur une liste de sites dits de confiance par des humains et d’autre part sur l’analyse des réseaux de liens : pour réussir, il faut obtenir des liens issus de sites de confiance
    Massa, un spécialiste du référencement, donnait son avis récemment dans Threadwatchà propos de ces histoires (légendes ?) de sandbox. D’après lui, si un site qui vient d’être mis en ligne obtient un lien le même jour de sites comme MSNBC ou CNN, alors immédiatement il aura de très bons positionnements pour de nombreux termes (car les liens obtenus de ces sites de confiance lui ont conféré immédiatement un bon indice de confiance). Mais si ce même site récupère des dizaines de milliers de liens issus de splogs ou autres sites de spam, alors il tombera très vite dans les oubliettes de Google, qui aura pour ainsi dire « perdu confiance en lui »…

    Martinibuster clamme la mort du « link development »… enfin pas tout à fait, il pense qu’il faut revenir à des liens « naturels ».

    Aaron Wall fait le point sur ce qu’il appelle justement le Google Trustbox (j’ignore si c’est lui qui a inventé ce terme).

    Avec cette notion de confiance que l’on retrouve un peu partout, les stratégies d’échanges de liens doivent absolument être revues. Comment rentrer dans cette Trustbox ? :) Peut-être faudrait-il simplement faire comme si les moteurs n’existaient pas, et redevenir un peu plus naturel ? Le débat est lancé, à vous la parole !
     
  2. zimounet
    zimounet WRInaute passionné
    Inscrit:
    8 Novembre 2004
    Messages:
    1 376
    J'aime reçus:
    0
    Je trouve ce nouveau moyen que gg emploierai pour le classement des site interressant et surtout beaucoup plus juste, et beaucoup plus fiable.

    De ce fait, un site n'est plus "sandboxé", mais pas encore dans la trustbox, ce qui change beaucoup de choses je trouve.

    En effet, un webmaster ne pourra s'en prendre qu'a lui si sont site est pourrit et si aucun site de qualité (donc avec un fort PR (entre autre) ) ne veux faire de lien vers lui.

    Bref, pour ma part, c'est un pas en avant dans le domaine du positionnement google, et pas, comme certains doivent le penser "encore un filtre pour embeter les webmaster"
     
  3. marinelo
    marinelo WRInaute occasionnel
    Inscrit:
    19 Mars 2004
    Messages:
    344
    J'aime reçus:
    0
    ""Mais si ce même site récupère des dizaines de milliers de liens issus de splogs ou autres sites de spam, alors il tombera très vite dans les oubliettes de Google, qui aura pour ainsi dire "perdu confiance en lui"...""
    ben suffit d'ajouté des liens pourrit pour les nouveaux sites de vos concurrents sur des sites de spam et le tour et joué !
    bien vu google !
     
  4. haderach
    haderach WRInaute impliqué
    Inscrit:
    26 Août 2004
    Messages:
    726
    J'aime reçus:
    0
    On revient enfin à des bonnes bases et à un internet clean...

    Comme au bon vieux temps.
     
  5. zimounet
    zimounet WRInaute passionné
    Inscrit:
    8 Novembre 2004
    Messages:
    1 376
    J'aime reçus:
    0
    Tu connais google, l'algo est super complet et complex, et d'apres moi en constante amélioration!

    C'est comme certain qui dise, que le fait de soumettre 60 000 fois son site a google via la page "addurl" peut etre pénalisant...

    Je pense que si cette théorie se vérifie par la suite, on constatera que google prend en compte l'effet bénéfique en priorité!


    +1 (+12 meme)
     
  6. spidetra
    spidetra WRInaute passionné
    Inscrit:
    7 Juillet 2003
    Messages:
    1 216
    J'aime reçus:
    0
    +1
    On parle bc de SandBox, TrustRank, TrustBox... etc.
    A rajouter sur la TODO list des développeurs de Google :
    - Blacklister les farmlinks, splogs et autres spamlinks center.
     
  7. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 659
    J'aime reçus:
    433
    et si l'ajout de milliers de liens sur des splogs vers un concurrent était totalement neutre pour Google ? Facile à dire, c'est vrai, car il faut que Google détermine si un site est spam ou rien de spécial ou super-trust.
    Mais on peut imaginer qu'un site ne progresse que s'il reçoit des liens de confiance. Et qu'il ne baisse pas s'il reçoit des liens pourris.

    Enfin j'espère...
     
  8. narayana
    narayana WRInaute impliqué
    Inscrit:
    28 Janvier 2005
    Messages:
    730
    J'aime reçus:
    0
    Alors comment déterminer si tel ou tel annnuaire est une référence ?
    Parce que avant on disait inscrit ton site dans les annuaires et meilleur sera ton réf. Ok mais maintenant la donne change. Serait-ce la mort des annuaires et encore plus des annuaires d'annuaire ?
     
  9. Thierry Bugs
    Thierry Bugs WRInaute accro
    Inscrit:
    16 Juin 2004
    Messages:
    3 397
    J'aime reçus:
    1
    Avoir des liens pourris peut aussi etre neutre dans ce rapport de confiance : déjà google ne nous montre que certaines backlinks, il pourrait ne nous donner à l'avenir que les bl de sites à fort trustrank.
    La difficulté va etre pour un site de gagner cette confiance seul dans son coin ça va etre dur, d'où les recherches de partenaires de qualité et des annuiares aussi de qualité.
     
  10. narayana
    narayana WRInaute impliqué
    Inscrit:
    28 Janvier 2005
    Messages:
    730
    J'aime reçus:
    0
    Et surtout comment savoir si un site est dit de confiance ?
     
  11. Thierry Bugs
    Thierry Bugs WRInaute accro
    Inscrit:
    16 Juin 2004
    Messages:
    3 397
    J'aime reçus:
    1
    nom de domaine acheté, ancienneté, mise à jour, contenu augmentant, un peu de nouvelles pages, courbe croisante doucement de liens...etc les paramètre de la confiance peuvent etre nombreux. (on dirait une recette de cuisine ;) )
     
  12. echanges-liens
    echanges-liens WRInaute discret
    Inscrit:
    26 Août 2005
    Messages:
    249
    J'aime reçus:
    0
    Si je me permets un résumé rapide, nous en venons à une prime à l'ancienneté. Car un site de "confiance" ne pourra être qu'un site ancien.

    Aussi, nous entrons dans une nouvelle forme de système pyramidale. Si avant, une masse de petits sites pouvaient en pousser un autre de bas en haut, aujourd'hui, il faut que ce soit les sites d'en haut qui tirent l'un d'eux situés plus bas.
     
  13. zimounet
    zimounet WRInaute passionné
    Inscrit:
    8 Novembre 2004
    Messages:
    1 376
    J'aime reçus:
    0
    :roll:
     
  14. spidetra
    spidetra WRInaute passionné
    Inscrit:
    7 Juillet 2003
    Messages:
    1 216
    J'aime reçus:
    0
    Pourquoi ?
    Au contraire, a mon avis, c'est plutot le retour en force des annuaires.
    Mais, les vrais annuaires.
    Pas le nieme PhpMyAnnu, ou toute dernière TopList qui délivre pour la nieme fois le même contenus sans aucune valeur ajoutée pour l'internaute.
    Mettre en place un annuaire ça demande un vrai boulot...
     
  15. zimounet
    zimounet WRInaute passionné
    Inscrit:
    8 Novembre 2004
    Messages:
    1 376
    J'aime reçus:
    0
    Meme si ta remarque est pertinante, tu résonne par rapport au classement et a l'indexation déjà faite!

    Alors que le systeme est fait pour privilégier les site de qualité:


    Un site de qualité mal référencé aura des facilité a faire des échange de lien avec d'autres site de qualité de son theme

    a l'inverse

    Un site pourrit, avec un contenu pauvre, sans qualité aura peine a faire des échanges de lien avec des sites de qualité du meme theme


    Donc je trouve qu'au niveau des performance du classement, c'est quelque chose de bien mieux pensé que la sandbox.

    De plus, un site de confiance ne pourra etre qu'un site ancien, et à juste titre!

    En effet, comment veux tu qu'un robot juge pertinant un site dès sa sortie?
     
  16. caro
    caro WRInaute impliqué
    Inscrit:
    21 Juillet 2003
    Messages:
    765
    J'aime reçus:
    0
    Voici mon avis :

    citation
    le terme TrustRank va sans doute bientôt remplacer le fameux Sandbox

    Comme je le mentionnais dans la discussion d'hier, je ne suis pas du tout d'accord, le Trustrank n'est simplement qu'un critère dans la sandbox, comme le critère évolution des bl ou ancienneté des bl ... il ne remplace pas la sandbox il en fait parti.

    citation
    maintenant, les moteurs analysent le degré de confiance d'un site

    tout à fait d'accord, il suffirait d'analyser quelques milliers de sites dans les catégories de dmoz par exemple pour établir le trustrank.

    citation
    liens issus de splogs ou autres sites de spam, alors il tombera très vite dans les oubliettes

    pas d'accord, le coeff ne doit être que positif, les "mauvais liens" ne seront tout simplement plus comptabilisés par exemple.


    Effectivement il faut envisager pour les "mangeurs de liens" de calmer le jeu, et de faire comme on doit tous faire, faire des liens de qualité sur des sites de qualité et non pas dans le seul but de faire des BL !
     
  17. bgdc
    bgdc WRInaute impliqué
    Inscrit:
    23 Mai 2005
    Messages:
    546
    J'aime reçus:
    0
    Bjr,

    je ne suis pas un specialiste et je prends cette discution en cours.

    Mais alors pourquoi un site de dit de confiance ferait un lien vers nos sites ?
    Autant ne pas en faire du tout et il garde son monopole, d'autant plus que si notre site est vraiment interressant, il pourrait lui faire de l'ombre.

    Le site de confiance, n'a aucun interet ds ce cas. A moins peut etre de faire des liens vers des sites n'ayant aucun rapport avec lui .......
     
  18. sylvain44
    sylvain44 WRInaute occasionnel
    Inscrit:
    28 Juin 2005
    Messages:
    306
    J'aime reçus:
    0
    l'étau semble se resserrer autour des sites de liens de sites de liens, ou de sites d'annuaires d'annuaires d'annuaires... Les nouveaux petits sites auront un mal fou à exister... et les sites existants ont intérêt à ne pas faire de fautes de carres...
     
  19. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 659
    J'aime reçus:
    433
    juste un détail caro : ce n'est pas moi qui ai dit "liens issus de splogs ou autres sites de spam, alors il tombera très vite dans les oubliettes", c'est l'avis d'une personne dont je parle dans mon billet.

    je précise ça car je suis d'accord avec toi, d'ailleurs je l'ai dit page 1, car sinon on pourrait nuire à un concurrent en lui faisant des liens.

    bgdc, je pense que pour être classifié site de confiance, il faut faire des liens (sortants). Un site "normal" fait des liens sortants, c'est la nature du web. Un site qui n'en fait pas est un site louche (et il y en a bcp...)
     
  20. marinelo
    marinelo WRInaute occasionnel
    Inscrit:
    19 Mars 2004
    Messages:
    344
    J'aime reçus:
    0
    Pour l'instant tous n'est que spéculation , car moi pour l'instant je vois dans l'indice YooVi: L'indice de mesure de visibilité 3 sites avec bonne popularité qui spam google depuis des mois !
    et google n'arrive pas à le voir ou fait l'aveugle, donc avant que le
    TrustBox vois le jour?
    il à déjà du mal avec des spams des années 1999 il ferais mieux de réglé des truc facile avant de voir des méthodes sophistiqué sinon c'est même pas la peine !
    sans compter que les plus gros spammeurs en ce moment et bien c'est des sites de confiance p-----j - me----t-i- ...... qui profite de leur notoriété de leur vitrine pour spammé sur leurs pages secondaires .
    ouvrez les yeux !
     
  21. narayana
    narayana WRInaute impliqué
    Inscrit:
    28 Janvier 2005
    Messages:
    730
    J'aime reçus:
    0
    Tu en connais beaucoup toi des annuaires de qualité ? :lol:
    A part la 5 ou 6 pertinent le reste n'est qu'un dépot de bl pas plus.
    Enfin c'est ce que je pense.
     
  22. spidetra
    spidetra WRInaute passionné
    Inscrit:
    7 Juillet 2003
    Messages:
    1 216
    J'aime reçus:
    0
    Cela fait très longtemps que je n'ai pas soumis un site à un annuaire :)
    Pour moi un bon annuaire est un annuaire thématique et spécialisé.
    Il ne sert à rien de multiplier les annuaires généralistes.

    Edité suite au message d'échanges-liens :)

    Un exemple d'annuaire de qualité spécialisé dans la musique :
    -annuaire-musique.narayana.fr
    Il existe certainement des dizaines d'exemple de ce genre spécialisé par métier ou secteur d'activité.

    Je n'avais pas regardé ta signature narayana, mais par ton travail tu illustre ce que doit-être un annuaire de qualité
     
  23. echanges-liens
    echanges-liens WRInaute discret
    Inscrit:
    26 Août 2005
    Messages:
    249
    J'aime reçus:
    0
    Le vôtre peut-être ? (votre annuaire musical, pas mal positionné dans Google d'ailleurs)

    Si une sélection doit se faire, on peut espérer que les meilleurs annuaires se positionneront, les autres disparaîtront. Pourquoi s'en faire ?
     
  24. fandecine
    fandecine WRInaute passionné
    Inscrit:
    2 Avril 2005
    Messages:
    1 886
    J'aime reçus:
    0
    Si vous vous souvenez bien il y a quelques mois on parlait déja de trustrank suite au dépôt d'un brevet sur le sujet. En résumé, il était expliqué par des matheux comment, sans explorer l'intégralité du net, on pouvait à partir d'une partie seulement des sites du web, déterminer des réseaux de liens de confiance. Avoir des BL dits "pourris" n'empéche pas d'apartenir à un ou plusieurs réseaux de liens dits de confiance.

    Pour ceux qui se demandent comment savoir si on appartient à un tel reseau, utilisez un moteur graphique du type de Kartoo ou google touchgraph

    Cela peut donner une idée de votre ou vos réseaux de liens et/ou bien de savoir avec qui faire des liens! :wink:
     
  25. fandecine
    fandecine WRInaute passionné
    Inscrit:
    2 Avril 2005
    Messages:
    1 886
    J'aime reçus:
    0
    A ce propos, existe-t-il un outil qui permette de calculer le nombre de liens sortants d'un site?

    Il pourrait-être interressant de comparer ce chiffre au nombre de lien entrants.... :idea:
     
  26. JeunZ
    JeunZ WRInaute accro
    Inscrit:
    18 Février 2004
    Messages:
    3 971
    J'aime reçus:
    0

    J'espère aussi ça serait plus juste!

    En tout cas si tout cla est vrai, l'art du référencement est en pleine révolution car la il ne va pas falloir des gens qui soient capable d'inscrire des sites partout mais plutôt des gens qui négocient avec des sites interessants.
     
  27. mx
    mx WRInaute impliqué
    Inscrit:
    16 Juin 2003
    Messages:
    526
    J'aime reçus:
    0
    "SI la TrustBox existe", elle ne doit pas s'appliquer à tout le monde, car lorsqu'on voit encore certaines requêtes, rempli de sites de même domaine, juste avec le sous domaine qui change, et ce sur plusieurs pages ... à moins on ne sait jamais que cnn a bien voulu faire des liens vers ceux-ci :lol:
     
  28. u8086
    u8086 WRInaute passionné
    Inscrit:
    24 Mai 2004
    Messages:
    2 446
    J'aime reçus:
    0
    Vraiment interessant cette notion de Trustrank rapprochée de celle de Sandbox.
    Pour revenir sur la relation du nombre de backlinks, de la qualité des backlinks et la Sandbox, je voudrait rappeler à Caro et Olivier que la Sandbox est bien une pénalité. Elle dépasse la simple ignorance de liens de mauvaises qualité et/ou trop nombreux.

    Exemple avec un site lancé il y a un mois :
    Je préviens le client que je vais opérer de l'échange de lien pas à pas pour éviter la Sandbox. Ce que je fais.
    Parralèllement, il passe des partenariats avec plusieurs portails professionnels, obtenant par là même quelques beaux backlinks.
    Un de ses portails lui met une bannière sur toute ses pages avec un lien en dur. Ces pages sont très nombreuses ont toutes un PR4.
    Résultat, en 3 semaines Google lui trouve 270 backlinks et Yahoo 5.550 !
    Immanquablement, le site tombe en Sandbox, c'est à dire qu'il ne sort pas sur des combinaisons de 7-8 mots clés très spécifiques.

    Mes conclusions :
    1- la sandbox reste une pénalité (et non une simple oubli de backlinks)
    2- Un portail professionnel et spécialisé de PR4 agé de plusieurs années ne serait pas nécessairement un site de confiance
     
  29. Grantome
    Grantome WRInaute passionné
    Inscrit:
    16 Janvier 2004
    Messages:
    2 251
    J'aime reçus:
    0
    Bon, à mon tour... :)

    La première chose que je me suis dit, c'est "Cool, j'ai jamais perdu de temps à courrir après les BL, voilà une bonne chose." Et puis...

    On ne peut qu'imaginer ce que pourrait être ce nouvel algo ce classement pertinant des sites, mais l'imaginaire fait parfois flipper.

    Je pense que pour être digne de confiance, il faut du contenu, peut-être une qualité de codage, preuve d'exigence et bien sur faire profter les autres site de sa renommé. e tout souppoudré d'adsence afin de faire connaitre à GG le nombre de page vue et le tour est joué.

    Si ça ne tenais qu'à ça, pas de problème, mais qu'en est-il si GG n'a aucun moyen de connaitre notre nb de visiteur, si je ne met pas mon site aux norme "HTML", pire, si je fais un super site, sans en faire profoter les autres ?
    Imaginons simplement un organisme qui publie une foule d'information sur un sujet, mais que la conception du site n'est pas leur priorité face aux données et que il le publie à des fin de diffusion sans pour autant faire des liens vers d'autres sites. Serait-il sanctionné et ainsi invisible sur les moteurs ?

    Les webmasters savent s'adapter, c'est souvent chiant et fastidieux, mais ils le fond. D'un autre coté, trouver le bon algo pour sortir pour chaque requête LE SITE qui va répondre à nos attente... C'est pas demain la veille, il faut donc évoluer, et GG le fait.
    Mais là, j'ai un doute sur le TrustRank.

    De plus, cela va accroitre le prix des BL :twisted:
     
  30. contre exemple
    contre exemple WRInaute discret
    Inscrit:
    10 Août 2005
    Messages:
    205
    J'aime reçus:
    0
    Bonjour magic yoyo,
    Comment peux tu être sur que la sandbox vienne de ce site professionnel?

    J'ai eu l'experience et je ne suis pas le seul sur ce forum à être tombé en sandbox avec seulement 2 ou trois échange de liens(pour un nouveau site)
     
  31. u8086
    u8086 WRInaute passionné
    Inscrit:
    24 Mai 2004
    Messages:
    2 446
    J'aime reçus:
    0
    Ouep... pas faux.
    La position communément admise ici jusqu'alors est que a mise en Sandbox est due à une croissance anormale du nombre de backlinks.

    J'en suis effectivement pas fondamentalement convaincu. Peut-être que la nature des backlinks est prépondérante... :roll:
     
  32. narayana
    narayana WRInaute impliqué
    Inscrit:
    28 Janvier 2005
    Messages:
    730
    J'aime reçus:
    0
    Merci bien :oops:
     
  33. marinelo
    marinelo WRInaute occasionnel
    Inscrit:
    19 Mars 2004
    Messages:
    344
    J'aime reçus:
    0
    A bon :lol:
    tu prend les plus gros sites en France il ne fond pas de liens sortants et ne sont pas louche pour la majorité .
    ou à tu étais cherché ce truc ? :?:
    la majorité des gros sites fond des liens en JavaScript ou se fond quelques liens entre eux .
    comme y sont déjà site de confiance , ben y monte un réseau de liens de sites de confiances . :lol:
    et bientôt il vendrons des liens dur au mois :twisted: tu vois ce que je veux dire.
    si un site de confiance te vend un lien 500€ mois et ben tu devient site de confiance ! :?: :idea:
     
  34. Malaiac
    Malaiac WRInaute occasionnel
    Inscrit:
    4 Mai 2005
    Messages:
    266
    J'aime reçus:
    0
  35. marinelo
    marinelo WRInaute occasionnel
    Inscrit:
    19 Mars 2004
    Messages:
    344
    J'aime reçus:
    0
    tu à raison il mais delà plusieurs mois à voir des mots cachés alors des calculs savants :lol:
    je pense qu'il passe plus de temps à calculé ses revenus de pub :lol:
     
  36. thickparasite
    thickparasite WRInaute passionné
    Inscrit:
    27 Avril 2003
    Messages:
    1 143
    J'aime reçus:
    0
    Il faut oublier tout ce qu'on sait et repartir sur de nouvelles bases.
    En attendant, les fondamentaux du réf marchent toujours, même si c'est moins efficace sur le court terme il me semble que c'est valide sur le long terme.
     
  37. baptiste
    baptiste WRInaute impliqué
    Inscrit:
    25 Avril 2004
    Messages:
    536
    J'aime reçus:
    0
    Oui je confirme que cela demande un vrai boulot avec mon annuaire www.annuaire-philatelie.com j'au dus attendre 12 mois pour être en 1er page sur le mot philatélie

    Mais comment savoir quel site est n’est pas de confiance, et que faire si un site en référencer sur des centaines de petit annuaire.
     
  38. u8086
    u8086 WRInaute passionné
    Inscrit:
    24 Mai 2004
    Messages:
    2 446
    J'aime reçus:
    0
    J'ai l'impression que les critères de positionnement de Google privilégie de plus en plus les sites informatifs au détriment... des sites marchands (qui par nature ont un contenu moins textuel).
    Stratégie volontaire pour diriger les sites marchands vers les liens commerciaux ? J'ai bien peur que oui...
     
  39. baptiste
    baptiste WRInaute impliqué
    Inscrit:
    25 Avril 2004
    Messages:
    536
    J'aime reçus:
    0
    C’est l’impression que j’ai aussi. Si l’on réfléchit bien a la nature du net, il ai et il restera un énorme réseau ou se côtoie sites informatifs (association étude personnelle sur tel ou tel sujet) marchant et priée (intranet, etc..)

    Pourquoi placer en 1er pages d’une recherche des sites marchands ?
    Peut que si google nous proposait une option afficher les sites marchands serai un plus pour mieux cibler notre recherche.
     
  40. u8086
    u8086 WRInaute passionné
    Inscrit:
    24 Mai 2004
    Messages:
    2 446
    J'aime reçus:
    0
    Tiens c'est pas bête ça ! :idea:
     
  41. lafleur2004
    lafleur2004 WRInaute passionné
    Inscrit:
    8 Avril 2004
    Messages:
    1 384
    J'aime reçus:
    0
    Parce que beaucoup de recherches sont des recherches d'information commerciale 8)
     
  42. u8086
    u8086 WRInaute passionné
    Inscrit:
    24 Mai 2004
    Messages:
    2 446
    J'aime reçus:
    0
    Je suis d'accord avec toi, mais ne pensez-vous pas que GG favorise les sites de contenu; et ce faisant repousse les sites marchands plus loin dans l'index ?
     
  43. chantra
    chantra WRInaute discret
    Inscrit:
    27 Juin 2005
    Messages:
    228
    J'aime reçus:
    0
    Le trustrank va faire mal à tous ces service de SEO et annuaires dupliqué.... Je vais commencer à regretter mes soumissions de site dans ces services gratuits de référencement.
     
  44. spidetra
    spidetra WRInaute passionné
    Inscrit:
    7 Juillet 2003
    Messages:
    1 216
    J'aime reçus:
    0
    les annuaires dupliqués vont plutot être pénalisés par des algo de SpamLink détection, surtout si les annuaires sont fortement connectés entre eux.
    a mon avis, cela ne rentre pas dans la même catégorie que le TrustRank.
     
  45. lafleur2004
    lafleur2004 WRInaute passionné
    Inscrit:
    8 Avril 2004
    Messages:
    1 384
    J'aime reçus:
    0
    Si tu veux, c'est pas forcément antinomique. Si tu veux vendre à distance (par Internet ou non), il vaut mieux que tu donnes un maximum d'information à l'acheteur potentiel. Celui-ci ne peut pas toucher le produit, il s'agit donc de décrire celui-ci sous toutes les coutures.

    Un bon site marchand regorge d'info, c'est à dire de contenu digeste pour les moteurs.
     
  46. ybet
    ybet WRInaute accro
    Inscrit:
    22 Novembre 2003
    Messages:
    7 516
    J'aime reçus:
    1

    Ah ouiiis, serais premier sur quasiment toutes mes requêtes :lol: , marre d'être chaque fois trentième :twisted:
     
  47. u8086
    u8086 WRInaute passionné
    Inscrit:
    24 Mai 2004
    Messages:
    2 446
    J'aime reçus:
    0
    Que pensez-vous des propositions suivante à propos du TrusRank et de la Sandbox :
    - la Sandbox est une pénalité
    - la Sandbox correspond à la durée que met un site à atteindre un certain niveau de confiance et/ou de popularité
    - l'unité du PageRank est la page, l'unité du TrustRank est le site.
    - des liens provenant de sites de confiance et/ou de popularité permettent d'atteindre le(s) niveau(x) requis
    - on ne sait pas si certains évènements, comme des "backlinks de mauvaise qualité" peuvent dégrader l'indice de confiance d'un site.


    Au cours de la vie d'un site, d'autres critères viennent enrichir l'indice de confiance d'un site (TrustRank) :
    - ancienneté du nom de domaine
    - date de 1ère indexation de la page
    - age des backlinks (?)
     
  48. cariboo
    cariboo WRInaute impliqué
    Inscrit:
    8 Février 2003
    Messages:
    600
    J'aime reçus:
    0
    Non, pas au sens propre. Cela fait longtemps que je crois que la Sandbox n'existe pas en tant que tel, et n'est qu'un effet de bord dû à la combinaison de différents filtres, notes et autres algos empilés par Google, et il me semble que cette version est aujourd'hui confirmée.

    Trop simple. Ce n'est pas qu'une histoire de confiance et de popularité. C'est un effet multifactoriel, ces critères en faisant partie.

    C'est faux. Le Trustrank est une note donnée à une page. Elle dépend d'autres notes attribuées à une page. Seule la root list, les "seeds" sont probablement une liste de sites.

    C'est nécessaire. Pas forcément suffisant. Pour le Trustrank, qui est un algorithme itératif, la structure des liens entre sites de confiance à son importance.

    Si j'en crois les articles de Garcia Molina, si, on sait.
     
  49. u8086
    u8086 WRInaute passionné
    Inscrit:
    24 Mai 2004
    Messages:
    2 446
    J'aime reçus:
    0
    Tout d'abord, merci de ces réponses que j'ai étudié précieusement. Mais j'en veux plus !

    Effet volontaire ou induit; Je crois que la conséquence de l'effet Sandbox est bien une dégradation du positionnement du site. Il s'agit d'un effet négatif. C'est une note négative affectée à une page, pas une note nulle. Cet effet est assez puissant pour exclure une page des résultats pour une requête très précise et particulière pour laquelle elle est pourtant "sexy".


    Pourais-tu développer succintement ?

    J'en suis pas si sur. Le TrustRank se propage via les liens et donc se transmet via les pages. Mais rien ne dit que GG ne fasse pas une moyenne des notes de TrustRank reçues par un site. Il y a plus de logique à considérer le spam à l'échelle d'un site qu'à l'échelle d'une page.

    Si je comprends bien, à l'instar du PageRank, le TrustRank est aussi affecté par la "qualité" des liens (position dans la page, profondeur du lien, réciprocité des liens, thématique des pages liées, texte de l'ancre[?]...)

    Tu as raison, c'est l'essence même du TrustRank. Mais il faut aussi envisager la possibilité qu'il y ait des écarts entre les solutions proposées par les chercheurs dans leur publications et ce qui à été implémenté dans l'algo de Google.
     
  50. cariboo
    cariboo WRInaute impliqué
    Inscrit:
    8 Février 2003
    Messages:
    600
    J'aime reçus:
    0
    Tu as raison : il y'a un effet de seuil, au delà duquel la page est classée "spammy". En deça de ce seuil, la "pénalisation" n'est qu'un recul dans les positions sur les pages de résultat.

    Succinctement cela va être très dur... Disons que pour bien se classer dans Google, pour un nouveau site, recevoir des liens de "sites de confiance" est utile, mais ni nécessaire ni suffisant, que la popularité n'est nécessaire que si la requête est concurrentielle, et que je n'ai jamais vu de confirmation réelle qu'il y'avait un facteur du genre : je ne met pas en tête de résultats un site qui a moins de six mois. Le critère d'âge existe peut-être, mais sûrement très pondéré par autre chose, car des sites nouveaux peuvent scorer "haut" dans google.

    Non. Les moteurs recherchent à enlever des pages "spammy". Pas des sites. Car un même site peut contenir à la fois des pages "normales" et des pages de "spam". Mieux vaut éviter le "délit de sale gueule" en se privant de pages pertinentes : où alors, toutes les pages en blogspot.com sont à virer ;)

    Il est affecté par la structure des liens, point barre. C'est un rank comme un autre, calculé "à rebours",

    Tu as raison d'être prudent là dessus. Mais si on part du principe qu'un Trustrank, même adapté, est utilisé par Google, alors, forcément, cela marche comme cela, car c'est le principe même qui est derrière l'algo.
     
  51. fandecine
    fandecine WRInaute passionné
    Inscrit:
    2 Avril 2005
    Messages:
    1 886
    J'aime reçus:
    0
    Tout ce que vous dites est bien joli, mais même si il y a surement beaucoup de vrais vous oubliez que google à un moyen trés simple et trés efficace de mesurer la "popularité" d'un site: Compter le nombre de click vers ce site dans ses pages de résultats. C'est une mesure trés objective.

    De plus, avec la Google bar, il peut trés bien, cette fois par une analyse statistique, affecter un facteur de popularité à tel ou tel site.

    Ceux qui utilisent le sitemap ont surement remarqué que Google leur propose des stats assez, disons surprenantes de la par d'un moteur de recherche. A votre avis, d'ou tire t'il ces stats! :wink:
     
  52. cariboo
    cariboo WRInaute impliqué
    Inscrit:
    8 Février 2003
    Messages:
    600
    J'aime reçus:
    0
    Cette mesure est assez connue également pour n'avoir rien à voir avec la pertinence de la page par rapport à une requête donnée.
     
  53. fandecine
    fandecine WRInaute passionné
    Inscrit:
    2 Avril 2005
    Messages:
    1 886
    J'aime reçus:
    0
    Ah bon!?

    Si je recherche quelquechose sur GG et que je clique ensuite sur un lien dans les pages de résultats ce n'est pas pertinent! Ell est bonne celle la! :lol:

    Imagine qu'un site soit par exemple premier sur une requete et qu'il y ait deux fois moins de clics que sur le site qui est cinquième. Qu'en conclurais tu si tu étais GG? Moi j'en concluerais que ce site est peut être mieux référencé mais moins interessant et que l'autre semble bien plus interressant bien que moins bien référencé et j'agirais en concéquence.

    Il faut arreter de penser en webmaster et se mettre à la place des internautes. En tant qu'internaute je me fou complétement de savoir si tel ou tel site est bien référencé, si il a sa place sur la première page de GG ou non! Je lit ce que je vois et si cela correspond à ce que je cherche je clique! Et lorsque je cherche je parcourt facilment 5 ou 6 pages de resultats et je ne clique pas sur tous les liens ni sur les mieux placés.

    Si en mesurant le taux de click sur les pages de résultats on obtient pas un critére de pertinance des resultats proposés, je veux bien boufer un autre moceaux de mon avatar! :wink: (ça m'arrive quand je me suis trompé!) C'est exactement comme si tu me dis que l'avis des critiques est plus important que celui du public en matière de cinéma, literature ou autre!

    Elle est bonne celle-la! :lol:
     
  54. cariboo
    cariboo WRInaute impliqué
    Inscrit:
    8 Février 2003
    Messages:
    600
    J'aime reçus:
    0
    Là où tu as raison c'est que compter les clics sert à améliorer l'algo, Google le fait comme tous les moteurs grand publics. C'est ce qu'on appelle une expérience de retour de pertinence par l'utilisateur.

    Mais quand je cherche "jaguar" dans un moteur de recherche, je ne cherche pas à obtenir les pages les plus cliquées qui parlent de jaguar, mais bien les pages qui sont les plus "en rapport" avec la requête jaguar.

    La pertinence de la réponse n'est donc pas une question de fréquentation des pages. Sinon, on ne verrait que les pages de MSN en tête des résultats des moteurs.
     
  55. fandecine
    fandecine WRInaute passionné
    Inscrit:
    2 Avril 2005
    Messages:
    1 886
    J'aime reçus:
    0
    Ben, peut-être que les pages les plus pertinentes pour "jaguar" sont celles qui ont été le plus souvant cliquées dans les pages de resultats de GG sur cette requete!

    SI je devais faire un moteur de recherche, je me servirais de ce critère en tout cas! Un internaute est toujours plus indiqué qu'un robot ou un algorithme pour déterminer la pertinance du résultat de sa recherche.
     
  56. u8086
    u8086 WRInaute passionné
    Inscrit:
    24 Mai 2004
    Messages:
    2 446
    J'aime reçus:
    0
    Je suis plutôt d'accord avec Cariboo. Je concluerai que la description (snipet) proposée pour le second est plus percutante que celle choisie pour le premier.

    L'internaute qui clique sur un résultat proposé par un moteur le fait à priori, en fonction de la description proposée et non en fonction du contenu réel de la page (puisqu'il ne le connait pas encore). Cela ne préjuge que peu la pertinence réelle de la page.
    Je ne dis pas qu'il y a aucune correlation, mais elle me parait trop indirecte pour en tirer des indices de pertinence.
     
  57. mia_mi
    mia_mi WRInaute discret
    Inscrit:
    25 Novembre 2005
    Messages:
    76
    J'aime reçus:
    0
    Bonjour à tous et merci pour vos contributions. Elles répondent à de nombreuses questions au sujet des modifications de l'algo de google.

    Je suis d'accord avec Caribou et MagicYoyo. Le taux de clic ne peut pas vraiment être un critère de pertinence.
    1. un site en 1ere position sera plus cliqué plus que l'internaute pense a priori que GG est fiable
    2. une description attractive genre "voyage tahiti discount - appel gratuit ..." attirera sans doute plus que "voyage tahiti, séjour tahiti, croisiere tahiti" et aura plus de clics

    Par contre, je me demandais, si Google utilisait les données issues de la google bar pour évaluer la pertinence d'un site Ex:
    - temps passé sur le site = plus il est long, plus le site est intéressant
    - taux de retour sur la page de résultat GG = plus il est élevé, moins le site est pertinent ...

    C'est sur qu'il faudrait déployer des algos de fous et avoir des machines tres puissantes mais qui sait ??
     
  58. fandecine
    fandecine WRInaute passionné
    Inscrit:
    2 Avril 2005
    Messages:
    1 886
    J'aime reçus:
    0
    MagiYoYo, tu raisonne comme un webmaster qui calcule la pertinence d'une page en comptant les occurances de mots dans cette page pas comme un internaute qui recherche un réponse à sa recherche!

    Et c'est parceque les webmasters raisonnent comme cela que l'on est arrivé à des situations d'abus dans les techniques de référencement. Hors, il semble que GG ait décidé de faire la chasse à ses pratiques en introduisant un facteur "'humain" dans son algo (trustrank, visite des sites par des humain etc...) et ce que je dis me semble être un des critères utilisé par GG. :D
     
  59. fandecine
    fandecine WRInaute passionné
    Inscrit:
    2 Avril 2005
    Messages:
    1 886
    J'aime reçus:
    0
    Oui c'est facile mais:

    1/ c'est difficile de concilier mots cles dans le titre de page et titre atrayant
    2/ c'est google qui décide de ce qu'il affiche pour décrire ta page, et pas le webmaster du site!

    Quand à la google bar ou autre alexa bar, yahoo bar elles sont bien entendu la pour analyser les habitudes des internautes!

    Si certains de vous ont déjà eu accés à des statistiques de visites qualitative comme Xiti Pro ils comprendrons ce que je veux dire!

    Médiametrie utilise un echantillon de foyer auquels il donne une zapette pour étudier leurs habitudes en matière de télévision et qualifier ainsi l'audiance des programmes. Sur le net, les zapettes c'est les "machin bar" et autres!

    Ne le dites pas mais on nous espionne! :wink:
     
  60. u8086
    u8086 WRInaute passionné
    Inscrit:
    24 Mai 2004
    Messages:
    2 446
    J'aime reçus:
    0
    Si tu dis ça parce que je suis les propos de Cariboo, je crois que tu n'est pas très objectif. C'est un très fin connaisseur des moteurs de recherche.
    Et je suis sur que la lecture de ses articles sur la sémantique appliquée aux moteurs de recherche et ses traductions de publications sur l'analyse thématique te convaincrons qu'il existe d'autres solutions plus pertinentes que ce que tu proposes.
     
  61. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 659
    J'aime reçus:
    433
    autant je suis d'accord que la fréquence des clics dépend surtout de la position du résultat et de sa description (titre+snippet), autant je pense que l'information sur la durée du surf ou sur le fait qu'un internaute revient cliquer sur le 2eme résultat après avoir cliqué sur le 1er, est utilisable pour juger de la pertinence des pages (en gros, essayer de comprendre ce qu'en a pensé l'internaute).

    le pb c'est que certains internautes tapent si mal leurs requêtes que c'est pas étonnant qu'ils aient besoin de cliquer sur plusieurs résultats avant de trouver ce qu'ils cherchaient vraiment...
     
  62. u8086
    u8086 WRInaute passionné
    Inscrit:
    24 Mai 2004
    Messages:
    2 446
    J'aime reçus:
    0
    Je pense que la répartition des clics entre le 1er, le 2nd et ainsi de suite suit une loi statistique assez stable.
    Si Google détecte une anomalie sur une requête particulière que peuvent-ils se dire ?
    - Que les 1ers sites proposés ne sont pas pertinents, i.e. que leur classement n'est pas bon
    - Que les descriptions sont mal générées
    - Que les sites sont pertinents mais mal optimisés et donc avec une description peu représentative

    Mais c'est typiquement du cas par cas... qui necessiterai/permettrai une évaluation manuelle de la pertinence du classement. Je ne crois pas à une correction automatique ou manuelle du classement sur ce critère.
     
  63. fandecine
    fandecine WRInaute passionné
    Inscrit:
    2 Avril 2005
    Messages:
    1 886
    J'aime reçus:
    0
    Ouaih! mais tant que les internautes seront si maladroits, il faudra bien que GG trouve des solutions. Je pense pas qu'il ait le bras si long qu'il puisse les forcer à taper des requettes qui l'arange. :wink:

    Je ne propose rien et je n'ai rien contre toi ou cariboo. :D . Je discute et je donne mon avis.

    Je me mets à la place de GG. Si je devais faire faire un moteur de recherche, j'agirais de la sorte. Analyse sémentique ou pas, rien ne vaut un oeil humain pour ces choses là!
     
  64. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 659
    J'aime reçus:
    433
  65. Thierry Bugs
    Thierry Bugs WRInaute accro
    Inscrit:
    16 Juin 2004
    Messages:
    3 397
    J'aime reçus:
    1
    Oui merci pour cette excellente piqure de rappel très complète sur les liens
    à lire...
     
  66. spidetra
    spidetra WRInaute passionné
    Inscrit:
    7 Juillet 2003
    Messages:
    1 216
    J'aime reçus:
    0
    Une question en lisant ce document : c'est quoi un wiki sanbdoxes ?
     
  67. rexxys
    rexxys WRInaute discret
    Inscrit:
    18 Avril 2004
    Messages:
    239
    J'aime reçus:
    0
    Caduc ,
    le probleme c'est que les sites de qualités font rarement des liens vers d'autre sites gratuitement , si ils sont payés grace a ce liens alors il le feront plus facilement.
    Donc un site pourri qui paye peut recuperer de bonne place , l'argent est roi !!
     
  68. climobil
    climobil Nouveau WRInaute
    Inscrit:
    2 Avril 2006
    Messages:
    22
    J'aime reçus:
    0
    je le découvre actuellement et c'est clair que la plupart des places sont déjà prises et faussent indubitablement la valeur des requêtes,par exemple si vous tapez climatiseur mobile sur google, les trois premières annonces, vous ne trouverez même pas un seul climatiseur sur ces pages, la quatrieme requete date du moyen age et nous pouvons nous apercevoir dans ce fichier source (eclats antivol ...) du nombre incroyable de mots cles caché dans cette page ...
    Puis ensuite viennent les pseudo comparateurs de prix, qui sont attachés commercialement avec deux ou trois magasins, ce qui réduit le choix pour les malheureux moutons que nous sommes, c'est pas pour encore la pluralité, le choix et la clarté pour les pauvres internautes que nous sommes.
     
  69. Szarah
    Szarah WRInaute accro
    Inscrit:
    22 Février 2006
    Messages:
    6 030
    J'aime reçus:
    1
    Le wiki est livré avec une sandbox, un bac à sable où les utilisateurs peuvent s'exercer aux subtilités de l'édition des messages. C'est très pratique.
     
  70. pocketmofo
    pocketmofo Nouveau WRInaute
    Inscrit:
    7 Septembre 2006
    Messages:
    6
    J'aime reçus:
    0
    Je trouve cela très mauvais dans la mesure où le temps mort pour obtenir des visiteurs devient trop long.

    Peu importe la qualité du site, lancer un nouveau site deviendra plus de peine que de bonheur.

    Considerer qu'un site "nouveau" est moins important est tout simplement un nouveau type de discrimination.

    De plus je doute qu'on retourne au Web propre dont certains parle.

    Mauvaise augure ...
     
  71. ybet
    ybet WRInaute accro
    Inscrit:
    22 Novembre 2003
    Messages:
    7 516
    J'aime reçus:
    1
    Long, oui et non. Finalement, le nombre de requêtes par jours et par utilisateur doir rester relativement fixe dans le monde. Et le nombre de pages Internet doit augmenter plus vite que le nombre d'internautes.

    Puis faut pas réver, les "vieux sites" ont une large partie de liens naturels que n'ont pas les nouveaux sites.
     
  72. Foxus
    Foxus WRInaute passionné
    Inscrit:
    9 Janvier 2005
    Messages:
    1 287
    J'aime reçus:
    0
    intéressant l'article, merci olivier
     
  73. mikl194
    mikl194 Nouveau WRInaute
    Inscrit:
    26 Décembre 2006
    Messages:
    17
    J'aime reçus:
    0
    Alors comment tirer vers le haut un site qui n'a rien à voir avec cnn, ou autres sites de confiance, ou l'on ne pourrait pas avoir de liens de chez eux pointant vers notre site ?
    Cela ne deviendrait pas mission impossible pour n'importe quel petit site de se démarquer ?

    Je vous donne pour exemple le site web de la boite dans laquelle je travaille, un site de confiance ne l'interesserait surement pas
     
  74. fred2501
    fred2501 Nouveau WRInaute
    Inscrit:
    5 Septembre 2006
    Messages:
    19
    J'aime reçus:
    0
    Lorsqu'on est webmaster on peut toujours signer la création d'un bon site (futursite de confiance) par un lien sur chacune des pages.
    Sinon il reste les forums de discutions dans lesquelles on peut mettre un lien dans sa signature (si, sa existe encore!).
     
Chargement...
Similar Threads - TrustBox stratégies liens Forum Date
Des nouvelles stratégies de netlinking ? Netlinking, backlinks, liens et redirections 15 Juillet 2015
Stratégies d'achat de pub sur Internet pour site ecommerce e-commerce 24 Février 2015
Meilleurs stratégies de Web Ranking e-commerce 22 Mai 2014
Vos stratégies pour lancer une campagne AdWords ? AdWords 27 Novembre 2012
optimisation des url et stratégies Débuter en référencement 23 Septembre 2012
Quelles stratégies de backlinks après les annuaires, CP et digg like ? Netlinking, backlinks, liens et redirections 19 Juin 2012
Conférence Search Engine Strategies à San Francisco #sessf Débuter en référencement 20 Août 2010
Conseils stratégies référencement Demandes d'avis et de conseils sur vos sites 12 Février 2010
Stratégies pour lier vos sites entre eux Netlinking, backlinks, liens et redirections 24 Novembre 2009
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice