Ma théorie sur la sandbox

Discussion dans 'Techniques avancées de référencement' créé par rituel, 15 Janvier 2005.

  1. u8086
    u8086 WRInaute passionné
    Inscrit:
    24 Mai 2004
    Messages:
    2 446
    J'aime reçus:
    0
    J'aurais peut-être du écrire "quand pensez-vous ?" :wink:

    Cette discussion m'interesse, mais a eu lieu quand j'étais poa là...
    Je trouve la piste de la fraicheur ou de l'ancienneté des liens interessante...
    Pas vous ?
     
  2. turulillo
    turulillo WRInaute impliqué
    Inscrit:
    27 Juin 2003
    Messages:
    526
    J'aime reçus:
    0
  3. u8086
    u8086 WRInaute passionné
    Inscrit:
    24 Mai 2004
    Messages:
    2 446
    J'aime reçus:
    0
    Si c'est le cas les sites nouveaux ont du souci a se faire...
    Si plus les sites sont visités, mieux ils sont positionnés et que dans la foulée; mieux ils sont positionnés plus ils sont visités...
    c'est un cercle sans fin qui a pour résultat final que de creuser l'écart entre quelques "premiers arrivés" et les autres.

    En plus, ca fait une masse d'infos énormes.
    Et pis pour collecter des données, faut l'autorisation de l'utilisateur, non ?

    Je sais pas, j'y crois pas trop...
     
  4. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 691
    J'aime reçus:
    439
    en lisant cet article, et en regardant particulièrement le schéma, c'est bizarre mais j'ai eu comme une impression de déjà vu.

    pourtant c'est différent...
     
  5. milkiway
    milkiway WRInaute accro
    Inscrit:
    3 Février 2004
    Messages:
    4 237
    J'aime reçus:
    0
    que veux tu dire ?
     
  6. rituel
    rituel WRInaute impliqué
    Inscrit:
    15 Mars 2003
    Messages:
    900
    J'aime reçus:
    0
    En fait c'est simple, il a résumé ma théorie sur les deux paragraphes suivants :

    En revanche il n'a pas illustré son article avec l'image que j'ai produite (très probablement pour les copyrights que tu as apposé), mais a préféré utiliser une courbe de poids d'enfant générique qui n'a finalement aucun sens avec la légende qui la précède ...

    Bref, pas très courtois de ne pas indiquer ses sources, surtout pour une boîte comme BNP Paribas :?
     
  7. olivieri
    olivieri WRInaute impliqué
    Inscrit:
    3 Février 2003
    Messages:
    692
    J'aime reçus:
    0
    Ecoutez radio bfm ce samedi, de 14h à 16h pour l'excellente l'émission "l'atelier numérique", ils vont peut être en parler.
     
  8. Kanta
    Kanta WRInaute occasionnel
    Inscrit:
    22 Octobre 2004
    Messages:
    317
    J'aime reçus:
    0
    J'avais lu cette théorie sur la sandbox en janvier et le principe m'avait bien plu, je ne serais pas étonné du tout qu'il y ait du vrai là dedans.

    En revanche cela pose des problèmes. Imaginons par exemple quelqu'un qui trouve une formule miracle pour vivre 15 ans de plus et la donne sur son site (exemple totalement farfelu mais peu importe). Sans aucun doute de très très nombreux bls vont apparaitre vers son site en très peu de temps et du coup il va sortir de la courbe et se retrouver pénalisé. Ce qui ne serait pas logique etant donné qu'il n'a rien fait de mal.

    Autre exemple plus concret : une catastrophe importante a lieu quelque part et un site web est créé pour venir en aide aux personnes touchées et faire des dons. Si la catastrophe est médiatisée le site en question va de la même facon très certainement posséder de très nombreux nouveaux bls en peu de temps et risque ainsi de se retrouver pénalisé, bien que tout ceci ce soit fait naturellement.

    Cela signifierait donc que le principe de la sandbox pénalise injustement certains sites et ne protège que la normalité, le site standard. Et ca ma gène quelque part que les responsables de gg puisse décider ca.
     
  9. Kanta
    Kanta WRInaute occasionnel
    Inscrit:
    22 Octobre 2004
    Messages:
    317
    J'aime reçus:
    0
    J'ouvre un deuxième message car il ne concerne plus ma réaction du message précédent. Je veux juste donner rapidement mon témoignage sur la sandbox si ca peut faire avancer quelqu'un et notamment sur la facon de s'en sortir.

    Un de mes sites existe depuis 3 ans et était très bien positionné sur plusieurs expressions (1ere page bien souvent). Et du jour au lendemain il a disparu dans les profondeurs du classement selon le phénomène de la sandbox maintenant décrit plusieurs fois. Je reste néanmoins 1er en pages France de google (pas francophones) sur certaines d'entre elles, ainsi que sur le nom de mon site en google "tout le web". Coté backlinks, ils sont peu nombreux (200 sur google et environ 3000 sur altavista) mais 90 % proviennent de liens croisés avec d'autres sites.

    En ce qui concerne le moyen de s'en sortir, he bien je n'ai pas encore trouvé lol. Cependant j'ai constaté par deux fois qu'au bout de 3-5 mois mon site réaparaissait tout d'un coup à ses positions initiales sans avoir fait de modification importante sur mes pages. Donc une fois sandboxé on ressort automatiquement au bout dfe quelques mois et dans mon cas aux mêmes positions qu'auparavant. Mais malheureusement je retombe systématiquement dans la sandbox environ 3 semaines plus tard et ainsi de suite (cela fait maintenant deux fois que je ressors et rerentre de cete facon).

    Ce qui me fait dire qu'à mon avis on ne peut pas sortir de soi même de la sandbox quoi qu'on fasse, cela se fait automatiquement au bout d'un certain délai (variable). En revanche il est impératif de tenter de remédier au problème durant la période dans la sandbox, ou juste après, sans quoi on y retourne de nouveau rapidement.

    Je serais curieux de savoir s'il y a des témoignages qui vont dans un sens contraire au mien ou si au contraire vous constatez la même chose. :)
     
  10. mx
    mx WRInaute impliqué
    Inscrit:
    16 Juin 2003
    Messages:
    526
    J'aime reçus:
    0
    idem kanta
     
  11. Kanta
    Kanta WRInaute occasionnel
    Inscrit:
    22 Octobre 2004
    Messages:
    317
    J'aime reçus:
    0
    Je suis en train de voir si mon "sandboxage" viendrait pas d'une répétition trop importante de mes backlinks. Est ce que c'est le cas pour toi : bls variés et divers ou souvent le même bl pour ton site sandboxé ?
     
  12. rituel
    rituel WRInaute impliqué
    Inscrit:
    15 Mars 2003
    Messages:
    900
    J'aime reçus:
    0
    Pour le 1er post, prennons par exemple le raz de marée récent en Asie, l'affaire a durée un certain bout de temps et même s'il y a eu des pics de backlinks les premiers jours, cela ne s'est pas stopé net et le site a du atteindre un pic de matûrité tout à fait dans les normes. Et combien même ils ont quand même dû prévoir un tas de scénarios chez Google, ils ne sont quand même pas nés de la dernière pluie ;)

    Pour le deuxième post, j'ai plus ou moins un scoop : Arrêtez les échanges de liens croisés à la création d'un site, vous vous enterrez vivant dans la Sandbox.

    Pour faire passer un référencement en tant que naturel tout en utilisant des méthodes "synthétiques", il faut absolument éviter de gonfler son nombre de Bls en faisant de simples échanges de liens !

    Le web a une architecture en toile d'araignée, le fait de faire des liens bi-directionnels est une très mauvaise simulation de celle-ci ... Et Google tendra de plus en plus à amoindrir l'effet de ces échanges sur le PR et le positionnement ( Certains ont dû d'ailleurs le sentir sur leur PR lors de la dernière GD ;) )

    Bref échangez intelligement (Quand c'est possible), car cela ne sert à presque rien de faire autrement si ce n'est vous faire passer pour un petit feinteux aux yeux du meilleur moteur mondial :wink:
     
  13. Kanta
    Kanta WRInaute occasionnel
    Inscrit:
    22 Octobre 2004
    Messages:
    317
    J'aime reçus:
    0
    Tu pense que c'est moins pénalisant lorsque le site existe depuis déjà un certain temps ?
     
  14. Maze12
    Maze12 WRInaute occasionnel
    Inscrit:
    7 Juillet 2005
    Messages:
    427
    J'aime reçus:
    0
    En effet c'est ce que je pense moi, d'apres l'experience que j'ai eu ce qui est penalisant pour un site plus ancien et d'optimiser/changer les meta (title , desc etc)a repetition ils paraitrais que c'est direct la sand box, un peu comme un system de code de carte bancaire lol au bout de 3 essaie t'a carte est bloquer :)
    Enfin c'est l'impression que j'en ai concernant mon site
     
  15. Raulent
    Raulent WRInaute discret
    Inscrit:
    19 Mars 2003
    Messages:
    125
    J'aime reçus:
    0
    Comme tu le fais toi aussi remarquer, je n'ai aucune science infuse et je ne me permettrais pas d'affirmer que mon expérience du phénomène de la sandbox soit la loi universelle ... etc... etc.

    Je ne pense pas que l'effet sandbox ait quoi que ce soit à voir avec ces jolies courbes superposées supposées démontrer qu'un site qui suit un chemin banalisé soit avantagé par rapport à celui qui fait soudainement parler de lui quitte à disparaître un peu plus tard.

    Tout au mieux, la théorie des courbes serait une fuite organisée par Google dans le but de cacher une réalité beaucoup moins idéale : générer du revenu.

    Tout mes sites suivent le même cheminement pour se faire référencer : D'abord un développement, puis l'analyse et l'optimisation des mots-clefs et éléments de la page, et enfin présentation auprès de 150 moteurs de recherche et annuaires, à peu de chose près toujours les mêmes, via mon logiciel dédié. Il me semblerait qu'à peu près tous les webmasters suivent ce cheminement qui n'est rien d'autre que logique et "normal". J'ajoute à cela quelques soumissions manuelles dans des annuaires dont je connais l'efficacité.

    Selon la théorie de l'évolution normale, tout mes sites devraient à l'issue de ce processus obtenir le même résultat, c'est à dire soit le sandbox, soit un PR normal de 2 pour commencer. Mais ce n'est pas ce qui se passe, et même le contraire. Un site mal ou pas fini aura un PR de 2 et un autre qui serait d'une meilleure finition et d'un intérêt majeur se retrouvera dans la sandbox. Aucun des critères mentionnés dans les articles que je lis n'est à retenir. Et c'est même le contraire. Un site bien fini qui a nécessité un gros investissement a beaucoup plus de chances de se retrouver dans la sandbox. Pourquoi ? Mais c'est évident. Pour rentabiliser l'investissement il faudra avoir recours à la publicité payante de Google. Ceci me semble être la seule variable de l'affaire.

    Mais je le répète, je n'ai pas la science infuse, juste mon expérience vue de mon coté de la lorgnette.
     
  16. arabinose
    arabinose WRInaute discret
    Inscrit:
    23 Avril 2005
    Messages:
    75
    J'aime reçus:
    0
    zffectivement la viellesse du site joue un role très important pour goole, j'ai constaté la même chose avec mes sites



     
  17. arabinose
    arabinose WRInaute discret
    Inscrit:
    23 Avril 2005
    Messages:
    75
    J'aime reçus:
    0
    une société qui crée un 11ème site et met des milliers de liens vers ce site sur les autre, c pas suspet oui mais du point de vu de google c suspect:) pcq les vrai liens pour google c ceux que les autres mettent sur leur site pcq il voient que ton site est important pas ceux que tu mettent sur tes sites rien pour avoir des liens


     
  18. thierry8
    thierry8 WRInaute accro
    Inscrit:
    11 Juillet 2005
    Messages:
    2 743
    J'aime reçus:
    0
    Je m'excuse, j'ai lu plusieurs articles sur la sandbox, mais j'ai un réel mal à comprendre. :oops:

    On coule à cause de quoi ?
    Trop de liens vers notre site ?
    Ou trop de Visites sur notre site ?
     
  19. pubwebmaster
    pubwebmaster WRInaute discret
    Inscrit:
    15 Septembre 2004
    Messages:
    219
    J'aime reçus:
    0
    Je m'y perd aussi avec tout ces remarques, certes pertinentes, qui vont dans tous les sens!

    Je suis en pleine sandbox avec mon site et sérieusement après avoir lu les 8 pages de messages... je réalise à quel point cet effet est compliqué et mystérieux....

    Il y a certes des pistes logique et pas trop difficile à prouver.. mais l'effet sandbox est difficile à décortique au cas par cas...

    Entre les exceptions et les cas extrêmes.. c'est difficile de voir clair !

    merci à tous pour votre participation très enrichissante
     
  20. pocketmofo
    pocketmofo Nouveau WRInaute
    Inscrit:
    7 Septembre 2006
    Messages:
    6
    J'aime reçus:
    0
    100 % correct

    En lisant vos post j'ai retenu les message et net-attoo en particulier et celui de trix.



    - pourquoi les anciens algorithmes de cloaking ne marchent plus ?

    => contenu du site trop similaire, site trop récent = désindéxation

    - mon concurrent arrive premier sur une requete très commerciale , mais il répete les mot clés énormément :

    => contenu similaire dans tous le site, site de plusieurs années


    - comment se faire desindexer ou sandboxer ou ... ?

    => lire les tutoriaux sur le web
     
  21. Hoho
    Hoho WRInaute occasionnel
    Inscrit:
    10 Janvier 2006
    Messages:
    439
    J'aime reçus:
    0
    Bel article Benjamin... j'aime les analogies faites sur la croissance de l'enfant ;)
     
  22. FroZenDooM
    FroZenDooM WRInaute discret
    Inscrit:
    11 Août 2004
    Messages:
    139
    J'aime reçus:
    0
    Intéressant.

    Mais la menace de la Sandbox n'est possible qu'en fonction de nombreux BL 'louches', ou s'agit il plutôt d'un verdict général sur le site face à l'analyse de ses BL, liens, mots clef, famlink ou autre ?

    Sinon, il faut aussi garder à l'espris que chaque positionnement de page sera fait en fonction d'un "mot clef" ou "phrase clef".
    Un site n'ira pas forcément en Sandbox selon ces mots.

    Question simple: Un site en Sandbox sera donc invisible quel que soit les mots clef ?
     
  23. Ric6000
    Ric6000 Nouveau WRInaute
    Inscrit:
    6 Juin 2006
    Messages:
    5
    J'aime reçus:
    0
    Bonjour,
    Je pourrais répondre à cette question en citant l'experience avec un de mes sites. Il était très bien positionné jusqu'a la semaine dernière (7 mars). Pour au moins 10 expressions très populaires en anglais, il était dans le top 5.

    Ce que je peux observer quelques jours plus tard, c'est qu'il a perdu son positionnement pour toutes ces requêtes. Pour certaines, il est rendu à la page 50. Cependant, pour deux des requêtes sur lesquelles je travaile depuis toujours, je n'ai pas été trop déclassé. C'est un peu comme si j'avais perdu mon travail des derniers mois.

    Je suis convaincu que c'est l'effet sandbox et non un changement d'algo. J'ai référencé plusieurs sites de la même façon, et les autres n'ont pas perdu leur positionnement.

    J'ai du franchir la limite de la sur optimisation...
     
  24. Emmanuel Liais
    Emmanuel Liais Nouveau WRInaute
    Inscrit:
    15 Mars 2007
    Messages:
    4
    J'aime reçus:
    0
    Cette discussion est très longue, mais très intéressante.

    Et il m'inspire de nombreuses choses. en vrac :

    1. La valeur ajoutée de Google est de présenter à l'internaute les pages les plus pertinentes, et pas d'afficher celles dont le PR est le plus élevé. La pertinence étant un critère éminement difficile à calculer, il est normal que l'algorythme de Google évolue pour tenir compte de l'évolution du Web en général, et des talents des Webmestres à contourner ses calculs.

    2. Les sites dont la survie dépend des pubs qu'ils proposent sont dans la même problématique que les télévisions privées gratuites, c'est à dire la course à l'audience, donc au PR. La première page de Google est de taille finie, alors que le nombre de candidats augmente et qu'il est donc de plus en plus difficile d'y être. La compétition est donc rude, et il y a beaucoup moins de gagnants que de perdants.

    3. L'internaute lui-même reste libre de choisir son moteur ou de résister à l'égémonie de Google, ainsi que de zapper les pubs ou de systématiquement voir aussi les pages 5 et 6 ... il intervient donc aussi dans le processus et l'évolution se fait dans un bal à trois ou l'équilibre est instable et évolue de manière perpételle, chacun des acteurs tirant de son coté. Il est possible que de faibles variations dans l'équilibre provoquent des "ruptures" de style "bac à sable".

    4. On commence à vivre des situations un peu surréalistes. Par exemple, à quoi sert un annuaire payant, si justement le critère pour lequel on y est est justement d'être payant ... inversement, pourquoi être obligé de s'inscrire à un annuaire gratuit pour y être (mon-annuaire.com, l'annuaire de tous ceux qui sont dans mon-annuaire.com!)?

    Toute cela me fait penser à des phénomènes d'interaction complexes du style accident : le "bac à sable" serait alors la traduction d'une somme de variations des paramètres pris en compte par Google, couplés à l'apparition ou la modification d'autres sites, le tout avec un algorythme donc Google lui-même ne maîtrise peut-être pas les résultats. Par exemple, pour passer de première page en troisième page, il suffit simplement que onze sites vous passent devant ... et pourtant quel impact sur le trafic!

    On se retrouve alors dans une situation de style aléatoire ou l'accident dépend non pas d'un facteur, mais de combinaisons de facteurs qui provoquent "parfois" des accidents. Et donc, tout comme pour un accident de voiture, vous pouvez avoir un accident en ayant commis la seule faute d'être sur la route d'un chauffard, ou n'avoir jamais d'accident alors que vous êtes un chauffard manifeste.

    Pour aller plus loin, la solution qui marche dans cette hypothèse est la gestion des risques :

    1. Vous vous assurez contre le bac à sabe (la LOYD'S devrait faire ce genre d'assurance)
    2. Vous apprenez à conduire prudement (ça ne supprime pas le risque mais ça en diminue la probabilité)
    3. Vous anticipez l'évolution suivante de vos partenaires (par exemple quid si Google supprime carrement l'influence du BL dans ses calculs!).

    Voilà ... et encore merci pour cette somme d'informations.
     
  25. jh_ice
    jh_ice WRInaute discret
    Inscrit:
    21 Novembre 2006
    Messages:
    62
    J'aime reçus:
    0
    Comment trouver l'age d'un site ?

    Slt

    Je n'arrive pas à remettre la main, sur ce site qui donnait l'age de vos sites.

    Quelqu'un aurait cette URL svp ?

    J'essais d'expliquer pourquoi un site que j'ai publié fin janvier, n'apparait sur aucune des expressions choisis, même pas avec le nom du site. Or toutes les pages sont indexé, et bcp de BL ont été créés, ainsi qu'une 10è de Communiqué de presse publiés.

    Il faudrait que je sache quel age ont les concurents.
     
  26. goldstreet
    goldstreet Nouveau WRInaute
    Inscrit:
    26 Octobre 2007
    Messages:
    10
    J'aime reçus:
    0
    Bonjour,

    Ma théorie a rajouté sur celle-ci est un poil differente,

    Je pense que l'algorythme de google se sert de references,

    En partant de se principe un site etant jeune ( age de la premiere page indexée ), peut donc bénéficier d'un "filtre spécial" lors du filtrage des requetes ( "prime de fraicheur"), pour ne pas paraitre laisé, sur les mots clés meme concurenciels (a condition d'avoir un optimisation propre), car etant jeune : aucune référence.

    Quelques jours apres, google a recuperé une référence, par rapport au nombre de visites et la popularité de chaque mots clés (chez moi l'effet de sand box se fait ressentir sur les pages contenant des mots clés concurenciels, sinon les autres pages a mots cles "rares" garde leurs traffic naturel).

    Si les visites par rapport a la popularité du mot clés et la position dans google ne correspond pas a la référence, les pages avec mots clés concurenciels peuvent "disparaitre des requetes" pendant un certains temps,
    jusqu'a la prochaine comparaison (10 aines de jours).

    NB : je pense qu'a l'efffet sand box s'ajoute la dure lois du maitres google ( sa taille ), les data center n'etant pas alignés, on pourrait remarqué des baisses de traffic liés a des consultations dans des data center non "alignés".
     
  27. Edwardshand
    Edwardshand WRInaute occasionnel
    Inscrit:
    20 Juillet 2007
    Messages:
    254
    J'aime reçus:
    0
    Google prendrait de plus en plus en considération l'évolution d'un site dans le temps?
     
  28. TireAuFlanc
    TireAuFlanc Nouveau WRInaute
    Inscrit:
    25 Février 2008
    Messages:
    7
    J'aime reçus:
    0
    Re: Comment trouver l'age d'un site ?

    Pourquoi ne pas utiliser simplement le whois ?
     
  29. rsx781
    rsx781 Nouveau WRInaute
    Inscrit:
    19 Mars 2008
    Messages:
    10
    J'aime reçus:
    0
    Re: Comment trouver l'age d'un site ?

    Tu fais comment exactement ? tu peux me donner la syntaxe stp ?

    Merci par avance.
     
  30. Szarah
    Szarah WRInaute accro
    Inscrit:
    22 Février 2006
    Messages:
    6 030
    J'aime reçus:
    1
    On ne peut pas placer d'adresse en signature, rsx781.
    Mets ton site dans ton profil, il apparaîtra sous un bouton "www" sous tes messages.
     
  31. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 691
    J'aime reçus:
    439
    rsx781 a fait remonter des vieilles discussions uniquement pour y caser des liens vers son site.
    Malheureusement pour lui/elle, les modos s'en sont rendus compte et l'ont désactivé (son compte)
     
  32. masterblaster
    masterblaster WRInaute discret
    Inscrit:
    27 Mars 2007
    Messages:
    147
    J'aime reçus:
    0
    Bonjour,

    Dans la théorie de la sandbox, l'on nous présente comme "peu naturel" par exemple le fait qu'un nouveau site obtienne très rapidement un nombre trop important de backlinks puis plus rien ...

    Sur ce point, une chose me laisse perplexe. Si un nombre soudain et important de backlinks peu sembler dans de nombreuses situations "surnaturel" selon moi ce n'est pas toujours le cas. Aujourd'hui par exemple on parle de plus en plus de Buzz marketing, ce qui signifie qu'un site peu très bien et de façon tout à fait naturelle et pourtant très ponctuelle obtenir des dizaines de milliers de backlinks en quelques jour puis plus rien. On dit qu'il a fait un Buzz.

    Pensez vous qu'en pleine époque ou on parle de plus en plus de marketing viral etc. Google n'y ai pas pensé. cette théorie signifie que Google pénaliserait alors les nouveaux sites ayant fait un buzz sur une actualité ou une vidéo ?

    Bien sur l'auteur dit lui même qu'il ne s'agit que d'une théorie et on sait qu'il faut la prendre avec distance.

    Je pense moi qu'il y'a une chose sur laquelle nous pouvons tous tomber d'accord, Google pénalise ce qui n'est pas naturel.

    Et la théorie de la sandbox nous présente comme peu naturel le fait qu'un site obtienne très vite pleins de backlinks puis s'essoufle.

    Pourtant il me semble qu'il y'a d'autres choses que Google pourrait utiliser et qui d'après moins sont plus fiables pour "détecter le surnaturel"

    Sur la plus part des annuaires que les référenceurs utilisent on ne peut obtenir un lien que vers une page d'accueil.
    Pourtant et c'est vrai pour la plus part des sites web (je n'ai pas vérifier statistiquement, mais je pense que c'est une information qu'on peut considérer comme juste)les pages les plus intéressantes en matière de contenu pour les visiteurs, sont les pages internes. La page d'accueil est un peu le tableau de bord du site c'est une page très importante, mais si je veux faire un lien, en tout bien tout honneur, depuis mon site vers une information que j'ai trouvé vraiment intéressante, je ne vais pas (sauf cas précis) lier une page d'accueil mais une page interne d'un autre site.

    Attention, ceci ne veut pas dire qu'un lien vers une page d'accueil est considéré comme suspect mais plutôt qu'est considéré comme suspect un site avec pleins de liens vers sa page d'accueil (qui pourtant ne représente pas le coeur du contenu du site en question) et très peu vers ses pages internes qui sont censées être les plus intéressantes...

    Dans ce cas précis on peu être sur à 99 % que ce n'est pas naturel, donc pénalisé.

    Et pourquoi pas une autre théorie sur la sandbox ...

    Imaginons un site dont la page d'accueil bénéficie d'un nombre intéressant de liens entrants, mais dont les autres pages en bénéficient très peu. Alors ces pages internes deviendraient comme un fardeau, lourd à porter par la page d'accueil qui serait en fait "la seule roue motrice" du site. Plus le référenceur appuye sur l'accélérateur (à forse d'inscription dans les annuaires et d'échanges de liens bidons en footer) plus tout le site s'enlise.

    L'une des forces de WRI, c'est d'avoir de nombreux liens certes, mais de nombreux liens aussi vers des pages internes, en gros il n'a pas qu'une roue motrice qui serait sa page d'accueil mais pleins d'autres roues motrices (plus petites peut êtres...mais motrices).

    Vous direz sans doute, celui là il a pas inventé l'eau chaude, mais par contre ce me parait plus pertinent que l'histoire de pleins de backlinks en peu de temps, c'est peut être la destination de ces backlinks qui compte plus que leur nombre.
     
  33. artscoop
    artscoop WRInaute discret
    Inscrit:
    17 Octobre 2008
    Messages:
    238
    J'aime reçus:
    0
    Hello,
    Ben écoute, je sais pas trop pour les autres mais je n'arrive pas à obtenir de liens profonds ou si peu.
    Ce qui fait que j'ai environ 2% de liens vers des pages internes (plus de 1000 liens enfin, ça c'est selon GG), sur un site où il y a pourtant du contenu. Pas de sandbox, et je doute qu'il en ait dans l'avenir. Je ne crois pas que Google punisse l'échange de liens comme ça.
    Sinon je me dis qu'un site qui prend trop de liens d'un coup mangera de la poussière (c'est encore arrivé récemment, je l'ai lu dans un autre sujet), après toute la question est de savoir combien de temps dure la pénalité.
    Si c'est une pénalité pour backlinks, à mon avis, un site en sort vite.

    La pénalité pour duplicate par contre... J'ai l'impression qu'on s'en sort en supprimant les doublons, mais pas seulement : il faudrait également bien reprendre son entrée de backlinks. (c'est aussi une impression)
     
  34. fredfan
    fredfan WRInaute accro
    Inscrit:
    2 Juillet 2008
    Messages:
    2 868
    J'aime reçus:
    2
    J'aime bien la théorie de masterblaster, qui pourrait nous faire sortir de ce mythe de la sandbox.
    Il n'est pas certain qu'il y ait une sandbox volontairement créée par les programmeurs.
    Dans les systèmes informatiques complexes et modulaires, il y a des comportements émergents qui se créent tout seul, en conséquence imprévisible des comportements programmés.
    La sandbox est peut-être tout simplement un comportement émergent, et comme elle apporte un plus au moteur de recherche il n'a pas été modéré.
    Ca expliquerait qu'il soit difficile à comprendre et à anticiper, et que certains se sentent injustement touchés alors que des concurrents passent entre les mailles du filet.
     
  35. HawkEye
    HawkEye WRInaute accro
    Inscrit:
    23 Février 2004
    Messages:
    13 932
    J'aime reçus:
    4
    L'effet SandBox est peut-être aussi simplement prévu. A rapprocher de QDF.

    N'oublions pas que ce que beaucoup voient comme une chute (effet SandBox) peut tout aussi bien être la fin d'une prime de fraîcheur, tout simplement ;)
     
  36. u8086
    u8086 WRInaute passionné
    Inscrit:
    24 Mai 2004
    Messages:
    2 446
    J'aime reçus:
    0
    100% en phase avec HawkEye.

    QDF, c'est l'évaluations des requêtes sur un critère "recherche de l'info fraiche". Cet algo implique qu'on qualifie aussi les pages comme "info fraiche".
    D'autre part, cela renvoie à une notion de "cycle de vie de l'information". Y'a des infos "météores". On en parle fort, mais pas longtemps. A l'inverse, y'a des pages dont la valeur informationnelle se maintiens dans le temps.

    Là dessus, on peut greffer des notions de lutte anti-spam. Si ça a la couleur et l'odeur du buzz (plein de backlinks d'un coup), mais que ça ne fait pas vraiment du buzz (du trafic ?)... c'est du spam.

    A mons sens, ce qu'on appelle Sandbox peut aussi bien recouvrir un effet naturel du cycle de vie de l'information, ou un filtre anti-spam qui aurait tenté de truander une notoriété.
     
  37. masterblaster
    masterblaster WRInaute discret
    Inscrit:
    27 Mars 2007
    Messages:
    147
    J'aime reçus:
    0
    Salut à tous,

    A quoi servirait la prime de fraîcheur, si c'est pour renvoyer aussi tôt une page dans les basfonds. La prime de fraîcheur est un concept qui me rend perplexe. Non pas qu'il n'existe pas mais, c'est plus à la notion de "prime" que je ne crois pas.

    On va pas reparler tous les critères d'un bon positionnement, mais gardons les 2 plus importants le contenu et les liens

    Un site est nouveau, on ne peut pas le juger sur son nombre de liens entrants, puisqu'il est nouveau. Par contre les robots l'ont trouvé et il a été classé, peut être au début uniquement en fonction de son contenu, non pas parce qu'il a bénéficié d'une prime quelconque, mais simplement parce que son contenu est jugé pertinent ... dans quelque temps (?) il devra passer le baptême du feu, comme ses grands frères et concurrents, en étant aussi jugé pour sa "fiabilité" (sa popularité, ses liens entrants). Ce serait peut être une des raisons pour lesquelles beaucoup de sites font une chute vertigineuse après un assez bon positionnement en début de vie.
     
  38. langnat
    langnat Nouveau WRInaute
    Inscrit:
    6 Mai 2010
    Messages:
    2
    J'aime reçus:
    0
    Bonjour,
    Je connais actuellement un problème de référencement sur Google. Depuis le début du mois d'Avril, pas mal de pages de notre site internet ont disparu des 1ère requêtes (alors que nous étions parmi les 1er jusqu'à présent sur les mots clés travaillés). Nous avons travaillé notre référencement à partir des meta title, description et keywords et cela portait ses fruits. Début Avril, nous avons travaillé l'esthétique en centrant nos pages en les habillant de jambes gauche et droite légèrement grisées (avec un back ground). Visiblement cela à un poids (je ne le connais pas exactement), est-ce que cela n'aurait pas causé une lenteur à l'ouverture et un moindre repérage de la part de Google ? Par ailleurs, on m'a aiguillé sur le phénomène de sandbox que vous abordez. Pour votre info, ce back ground n'est pas accepté sur certains postes (sécurisés) et nos pages s'affichent toutes en noir ... seuls le texte couleur et les photos ressortent. Cela ne concernent pas tout le monde mais c'est un indice de plus qui me fait dire que ce back groud en question n'est pas le bienvenu. Que l'on se comprenne bien, mon objectif n'est pas de tout ratisser sur le web (je ne cautionne pas cette tendance qui décridibilise bcp de monde) mais simplement de ressortir correctement sur les mots clés en rapport avec une activité (+ la destination géographique en question).
    Qu'en pensez-vous ? Est-ce que j'enlève cet habillage ?
    Merci par avance.
    Frédéric
     
  39. masterblaster
    masterblaster WRInaute discret
    Inscrit:
    27 Mars 2007
    Messages:
    147
    J'aime reçus:
    0
    Bonjour Frédéric,

    Sincèrement, la sandbox comme étant un passage obligatoire cela m'étonnerait, mais je ne renie pas son existence.

    Je pense qu'il n'y a pas de fumée sans feu, si vous avez chuté dans les SERP, il y'a peut être une raison rationnelle à cela avant de parler de sandbox.

    Vous dites avoir travaillé à partir des balises méta title, description et "keywords" ... ce n'est peut être pas suffisant ?
    Avez vous aussi optimisé votre contenu pour améliorer votre positionnement ?
    A moins que vous n'ayez dans votre secteur que très peu de concurrence.

    Et mis à part le contenu, quelle est votre stratégie actuelle dans la recherche de backlinks ? Les annuaires ?
    Est ce que vous contactez d'autres webmasters pour établir des échanges de liens, est ce que vous essayez d'obtenir des liens placés dans le coeur du contenu ? Est ce que vous axez votre recherche de backlinks seulement pour la page d'accueil ou est ce que vous obtenez aussi des liens vers les autres pages de votre site ?

    Certains disent que quand vous êtes dans le bac à sable, le mieux c'est de ne rien faire et d'attendre, personnellement je ne suis pas pour les stratégies attentistes... mais attention beaucoup de ceux qui disent qu'il vaut mieux ne rien faire sont beaucoup beaucoup plus calés que moi. Mais c'est un forum et on y partage des points de vue :)

    La prise en compte par Google de la vitesse de chargement de vos pages, c'est plus que jamais de l'actualité et cela a un impact sur le positionnement. Mais est ce que votre background a alourdi votre page à ce point ?
    A vous de comparer votre vitesse de chargement et celle de vos concurrents et voyez si c'est significatifs ... j'ai des doutes.

    Masterblaster
     
  40. Francky1er
    Francky1er WRInaute discret
    Inscrit:
    8 Août 2007
    Messages:
    63
    J'aime reçus:
    0
    Pour en revenir à la vitesse de chargement d'une page, à quel point pensez vous que cela peut influer sur le positionnement d'un site? Quelqu'un aurait des éléments ou un retour d'expérience à faire partager suite par exemple à un changement de serveur?
     
Chargement...
Similar Threads - théorie sandbox Forum Date
SEO : Une théorie mais peut-être pas la bonne Référencement Google 16 Janvier 2020
Redirection permanente 301 théorie ? URL Rewriting et .htaccess 10 Novembre 2010
Sandbox Problèmes de référencement spécifiques à vos sites 18 Décembre 2019
Sandbox Yahoo Débuter en référencement 19 Janvier 2017
Paypal sandbox retard dans les paiments récurrents. e-commerce 25 Avril 2016
Aide Google SandBox Crawl et indexation Google, sitemaps 11 Janvier 2015
Sandbox ? Débuter en référencement 21 Septembre 2014
Comment sortir de la sandbox? Problèmes de référencement spécifiques à vos sites 16 Septembre 2014
mon site semble etre dans le sandbox google malgré son bon score Problèmes de référencement spécifiques à vos sites 17 Juillet 2014
sandbox ou autre filtre : quelle solution? Problèmes de référencement spécifiques à vos sites 15 Février 2014
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice