Test t3 : étude de l'effet sandbox

Discussion dans 'Tests et études de cas' créé par fandecine, 16 Juin 2005.

  1. oli004
    oli004 WRInaute passionné
    Inscrit:
    5 Janvier 2005
    Messages:
    1 643
    J'aime reçus:
    0
    Encore une fois, que faites vous des cas, où il n'y a pas de campagne de BL ?

    Le cas se constate sur le test que j'ai signalé et hervéG l'a également déja rencontré.

    On est dans un cas, ou l'on ne peut pas s'interreser à un accroissement irrégulier puisque il n'y a pas d'accroissement , ou extrêmement faible.

    Ces pages serait-elles freinées parce que trop jeune, n'ayant pas encore fait leur preuve ? j'entends par là que l'indice de confiance n'est pas encore attribué à ces pages donc on met en bac à sable.
    je ne sais pas, mais si c'est le cas, il faut la jouer très fine :
    Pas ou vraiment très peu de BL -> dans le bac en attente (période de gestation)
    Trop de BL d'un coup -> dans le bac en attente (période de mise à l'épreuve)
    Pas évident de calculer pour passer entre les deux.
     
  2. caro
    caro WRInaute impliqué
    Inscrit:
    21 Juillet 2003
    Messages:
    765
    J'aime reçus:
    0
    correiaj :
    tout site me parait parfait pour le test 2, objectif te sortir de la sandbox par le haut, si ca marche cela doit etre possible sous moins de 2 mois (durée de prise en compte des liens par google).
    quand meme une question, es tu sur d'avoir 130 liens provenants d'annuaires ?


    oli004 :
    j'en ai justement parlé à hervé y a pas longtemps, je pense que google analyse de très près les BL, pour justifier une position x il faut avoir entre y et z liens, comment google définit il cette marge ? peut etre en se fiant des sites de références, trustrank pourquoi pas ?
    en tout cas ca expliquerait que meme si tu fais une page avec 1 seul lien pour ne pas tomber dans la sandbox, tu y tombes car ta position n'est pas justifée par ton nb de liens (nb et valeur bien sur).


    fandecine :
    ta théorie comme quoi des milliers de BL sont un critère important est vérifiable, en tout cas je pense le contraire, je préfére avoir 1 bon lien sur 5 sites que 3000 liens sur 2 sites.
    on pourrait effectivement faire un test assez facilement pour cela :
    on fait 2 pages différentes mais sans aucune clé, on met 1 page sur site A et l'autre sur site B.
    puis on fait 1000 liens sur un site qui pointe sur le site A avec anchor "trucmuch" (donc site A recoit 1000 liens)
    et 1 lien sur 5 sites différents pointant sur le site B avec anchor "trucmuch" (donc site B recoit 5 liens)
    je parirais fort que le site B ressorte avant le site A sur la requete "trucmuch".
     
  3. correiaj
    correiaj WRInaute impliqué
    Inscrit:
    25 Avril 2005
    Messages:
    988
    J'aime reçus:
    0
    Ben a peu près, c´est très dur de savoir. Je te dis ce nombre car c´est a peu près le nombre auquel j´ai soumis mon site. Mais sur google rien apparait, sur yahoo oui et msn aussi... Mais c´est pas très fiable. Alors tu peux prendre comme fourchette 100-150.
     
  4. correiaj
    correiaj WRInaute impliqué
    Inscrit:
    25 Avril 2005
    Messages:
    988
    J'aime reçus:
    0
    Bon, voilà ce que je viens de constater:
    ( et cela me paraît logique, d´autant plus que mathématiquement, c´est très probable)
    Le filtre "sandbox" de google (peu importe son nom), semble en fait sanctionner la création de backlink provenant de sites eux mêmes suspects dans le sens où ils créént de nouveaux liens en quantité. En gros, il me semble que s´inscrire dans un annuaire payant, ou demandant un lien retour est moins pénalisant, seulement parce qu´ils reçoivent moins de soumissions, et donc créent moins de liens (je pense au nombre de liens par page et non par site).
    Ce constat me semble tout à fait logique, car l´effet sandox, qui n´est en fait l´application d´un filtre x à une condition positive (true) survient ad hoc (quasi instantanément) car ces fameux annuaires, produisants des quantités de liens importants, sont par conséquent visités et "crawlés" très très souvent voire en continu.
    En clair, je pense que le filtre anti spam (sandbox) de google est quasi incontournable, car il n´existe que deux solutions:
    -soumettre son site dans le plus d´annuaires possibles, afin d´obtenir le pr (ou popularité) le plus important en un minimum de temps = sandbox (+/- 6 mois)
    -obtenir au fur et à mesure des liens pertinents: pas d´effet sandbox, mais le temps nécessaire à attenidre ce même pr sera à peu de chose près le même, voire plus long (point positif: on suit sereinement la progression du site).
    En définitive (si ce raisonnement s´avère exacte), ce filtre permet d´obtenir deux conséquences importantes pour la pertinence des résultas:
    -non seulement cela permet d´éliminer les sites jeunes de base, et cela est excellent car cela élimine en grande partie les sites spams (x ou arnaque) et oblige les autres sites à faire leurs preuves, comme dans le commerce réel (seuls les meilleurs survivent, une sorte de loi de Darwin quoi).
    -Mais aussi, cela permet aux grandes compagnies, ayant un budget de marketing assez élevé, d´obtenir de nombreux liens payants ou acquis ipso facto de par leur notoriété, de se placer en très bonne position dès le début. Disons qu´elles auront besoin d´un mois pour arriver à un résultat équivalent à la sortie de la sandbox.
    Cela explique aussi la durée aléatoire de l´application du filtre, car tout dépend de la dernière soumission à ce type d´annuaire (et de sa prise en copmte par les ggbots). D´autre part, cela va parfaitement dans le sens de la vision du commerce outre atlantique: faites place aux grands, mais tout le monde peut gagner (All of witch are american dream)...
     
  5. caro
    caro WRInaute impliqué
    Inscrit:
    21 Juillet 2003
    Messages:
    765
    J'aime reçus:
    0
    1ere retombée de tests :

    - objectif de la recherche
    Voir si l'anchor des liens est facteur de sandbox sur les clés de l'anchor.

    - mise en place des tests
    plusieurs pages sur plusieurs sites (plus ou moins récents) ont été faites de manière plus ou moins optimisées et sur plusieurs sujets.
    de 1 à 5 liens ont été crée en interne ou en externe selon les cas, les anchors de ces liens ne contiennent en aucun cas les clés des requetes.

    - résultat
    certaines pages tombent en sandbox alors qu'aucune clé n'est contenu dans l'anchor du ou des liens.

    - explication avec un cas concret
    une page optimisée pour "vie tranquille" est créée,
    meme si on fait peu de liens (1à5 pour ne pas brusquer) avec comme anchor "aucun rapport"
    la page est sandboxée.

    - conclusion
    les clés des anchors ne sont pas déclencheurs de sandbox sur des requetes spécifiques.

    ... la suite pour plus tard :wink:
     
  6. HawkEye
    HawkEye WRInaute accro
    Inscrit:
    23 Février 2004
    Messages:
    13 933
    J'aime reçus:
    4
    [HS]

    "aucun rapport" (> "pas de nana") > "vie tranquille"

    Sisi... Les termes sont liés...

    [/HS]

    ok, ok... je :arrow: :arrow: :arrow:
     
  7. u8086
    u8086 WRInaute passionné
    Inscrit:
    24 Mai 2004
    Messages:
    2 446
    J'aime reçus:
    0
    @Caro : comment évalues-tu que ces pages nouvellement crées sont dans la Sandbox ?
     
  8. caro
    caro WRInaute impliqué
    Inscrit:
    21 Juillet 2003
    Messages:
    765
    J'aime reçus:
    0
    sandbox déterminée par des astuces avec ***** et autres systemes analogues.
    c'est sur qu'il faut au départ être d'accord avec ce genre de requetes, mais personellement j'y crois à 100% et pas pour rien d'ailleurs.
     
  9. guilcorp
    guilcorp Nouveau WRInaute
    Inscrit:
    17 Mai 2005
    Messages:
    25
    J'aime reçus:
    0
    Il serait intéressant dans savoir plus sur les sites origines (quel type, nombre de backlink, rapport thématique, age...).

    Merci Caro
     
Chargement...
Similar Threads - Test étude effet Forum Date
Récapitulatif [Tests et études de cas] Tests et études de cas 30 Mai 2009
Search Console Prestashop | Robot.txt bloque des URL mais Outil de test du fichier robots.txt l'Authorise... Crawl et indexation Google, sitemaps 21 Novembre 2019
Vos retour sur Adfly et Shortest ? Monétisation d'un site web 20 Novembre 2019
Testeur Neilpatel : nb de visites TRES différent de Google Analytics Référencement Google 18 Novembre 2019
Tester les pubs ADS - Ou trouver des coupons ? e-commerce 12 Novembre 2019
Test d'optimisation mobile : Problèmes de chargement de la page Débuter en référencement 10 Novembre 2019
Page de test et fichier Robots.txt Crawl et indexation Google, sitemaps 9 Octobre 2019
Robots.txt et test url Crawl et indexation Google, sitemaps 9 Octobre 2019
microdata : test google contre schema.org Débuter en référencement 18 Septembre 2019
Tester si une redirection web a été faite Développement d'un site Web ou d'une appli mobile 8 Juillet 2019
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice