Ma théorie sur la sandbox

WRInaute passionné
J'aurais peut-être du écrire "quand pensez-vous ?" :wink:

Cette discussion m'interesse, mais a eu lieu quand j'étais poa là...
Je trouve la piste de la fraicheur ou de l'ancienneté des liens interessante...
Pas vous ?
 
WRInaute passionné
Si c'est le cas les sites nouveaux ont du souci a se faire...
Si plus les sites sont visités, mieux ils sont positionnés et que dans la foulée; mieux ils sont positionnés plus ils sont visités...
c'est un cercle sans fin qui a pour résultat final que de creuser l'écart entre quelques "premiers arrivés" et les autres.

En plus, ca fait une masse d'infos énormes.
Et pis pour collecter des données, faut l'autorisation de l'utilisateur, non ?

Je sais pas, j'y crois pas trop...
 
Olivier Duffez (admin)
Membre du personnel
en lisant cet article, et en regardant particulièrement le schéma, c'est bizarre mais j'ai eu comme une impression de déjà vu.

pourtant c'est différent...
 
WRInaute impliqué
En fait c'est simple, il a résumé ma théorie sur les deux paragraphes suivants :

Néanmoins l'explication la plus probable est que Google ait rajouté le paramètre temps dans l'évolution du classement de ses résultats. S'inspirant des courbes de croissance de bébés dans nos vieux carnets de santé, les ingénieurs de Google ont théorisé le développement d'un site Internet et de sa popularité.

courbe-small.jpg


Au début de sa vie, un site Internet est peu connu et peu populaire (son PageRank est faible), puis au fur et à mesure du début de sa vie, il gagne en popularité et son PageRank augmente suivant une courbe de croissance similaire à celle du poids d'un nouveau né. Si au contraire un site démarre avec un PageRank très élevé puis que son PageRank n'évolue plus ou si soudainement son PageRank augmente sans évoluer par la suite, Google considère que ce site a un développement suspect, signe de référencement abusif et le place alors dans le SandBox : le bac à sable. Heureusement pour la santé de nos webmasters cette mise à l'écart n'est que temporaire !

En revanche il n'a pas illustré son article avec l'image que j'ai produite (très probablement pour les copyrights que tu as apposé), mais a préféré utiliser une courbe de poids d'enfant générique qui n'a finalement aucun sens avec la légende qui la précède ...

Bref, pas très courtois de ne pas indiquer ses sources, surtout pour une boîte comme BNP Paribas :?
 
WRInaute impliqué
Ecoutez radio bfm ce samedi, de 14h à 16h pour l'excellente l'émission "l'atelier numérique", ils vont peut être en parler.
 
WRInaute occasionnel
J'avais lu cette théorie sur la sandbox en janvier et le principe m'avait bien plu, je ne serais pas étonné du tout qu'il y ait du vrai là dedans.

En revanche cela pose des problèmes. Imaginons par exemple quelqu'un qui trouve une formule miracle pour vivre 15 ans de plus et la donne sur son site (exemple totalement farfelu mais peu importe). Sans aucun doute de très très nombreux bls vont apparaitre vers son site en très peu de temps et du coup il va sortir de la courbe et se retrouver pénalisé. Ce qui ne serait pas logique etant donné qu'il n'a rien fait de mal.

Autre exemple plus concret : une catastrophe importante a lieu quelque part et un site web est créé pour venir en aide aux personnes touchées et faire des dons. Si la catastrophe est médiatisée le site en question va de la même facon très certainement posséder de très nombreux nouveaux bls en peu de temps et risque ainsi de se retrouver pénalisé, bien que tout ceci ce soit fait naturellement.

Cela signifierait donc que le principe de la sandbox pénalise injustement certains sites et ne protège que la normalité, le site standard. Et ca ma gène quelque part que les responsables de gg puisse décider ca.
 
WRInaute occasionnel
J'ouvre un deuxième message car il ne concerne plus ma réaction du message précédent. Je veux juste donner rapidement mon témoignage sur la sandbox si ca peut faire avancer quelqu'un et notamment sur la facon de s'en sortir.

Un de mes sites existe depuis 3 ans et était très bien positionné sur plusieurs expressions (1ere page bien souvent). Et du jour au lendemain il a disparu dans les profondeurs du classement selon le phénomène de la sandbox maintenant décrit plusieurs fois. Je reste néanmoins 1er en pages France de google (pas francophones) sur certaines d'entre elles, ainsi que sur le nom de mon site en google "tout le web". Coté backlinks, ils sont peu nombreux (200 sur google et environ 3000 sur altavista) mais 90 % proviennent de liens croisés avec d'autres sites.

En ce qui concerne le moyen de s'en sortir, he bien je n'ai pas encore trouvé lol. Cependant j'ai constaté par deux fois qu'au bout de 3-5 mois mon site réaparaissait tout d'un coup à ses positions initiales sans avoir fait de modification importante sur mes pages. Donc une fois sandboxé on ressort automatiquement au bout dfe quelques mois et dans mon cas aux mêmes positions qu'auparavant. Mais malheureusement je retombe systématiquement dans la sandbox environ 3 semaines plus tard et ainsi de suite (cela fait maintenant deux fois que je ressors et rerentre de cete facon).

Ce qui me fait dire qu'à mon avis on ne peut pas sortir de soi même de la sandbox quoi qu'on fasse, cela se fait automatiquement au bout d'un certain délai (variable). En revanche il est impératif de tenter de remédier au problème durant la période dans la sandbox, ou juste après, sans quoi on y retourne de nouveau rapidement.

Je serais curieux de savoir s'il y a des témoignages qui vont dans un sens contraire au mien ou si au contraire vous constatez la même chose. :)
 
WRInaute occasionnel
mx a dit:

Je suis en train de voir si mon "sandboxage" viendrait pas d'une répétition trop importante de mes backlinks. Est ce que c'est le cas pour toi : bls variés et divers ou souvent le même bl pour ton site sandboxé ?
 
WRInaute impliqué
Pour le 1er post, prennons par exemple le raz de marée récent en Asie, l'affaire a durée un certain bout de temps et même s'il y a eu des pics de backlinks les premiers jours, cela ne s'est pas stopé net et le site a du atteindre un pic de matûrité tout à fait dans les normes. Et combien même ils ont quand même dû prévoir un tas de scénarios chez Google, ils ne sont quand même pas nés de la dernière pluie ;)

Pour le deuxième post, j'ai plus ou moins un scoop : Arrêtez les échanges de liens croisés à la création d'un site, vous vous enterrez vivant dans la Sandbox.

Pour faire passer un référencement en tant que naturel tout en utilisant des méthodes "synthétiques", il faut absolument éviter de gonfler son nombre de Bls en faisant de simples échanges de liens !

Le web a une architecture en toile d'araignée, le fait de faire des liens bi-directionnels est une très mauvaise simulation de celle-ci ... Et Google tendra de plus en plus à amoindrir l'effet de ces échanges sur le PR et le positionnement ( Certains ont dû d'ailleurs le sentir sur leur PR lors de la dernière GD ;) )

Bref échangez intelligement (Quand c'est possible), car cela ne sert à presque rien de faire autrement si ce n'est vous faire passer pour un petit feinteux aux yeux du meilleur moteur mondial :wink:
 
WRInaute occasionnel
rituel a dit:
Pour le deuxième post, j'ai plus ou moins un scoop : Arrêtez les échanges de liens croisés à la création d'un site, vous vous enterrez vivant dans la Sandbox.

Tu pense que c'est moins pénalisant lorsque le site existe depuis déjà un certain temps ?
 
WRInaute occasionnel
Kanta a dit:
rituel a dit:
Pour le deuxième post, j'ai plus ou moins un scoop : Arrêtez les échanges de liens croisés à la création d'un site, vous vous enterrez vivant dans la Sandbox.

Tu pense que c'est moins pénalisant lorsque le site existe depuis déjà un certain temps ?

En effet c'est ce que je pense moi, d'apres l'experience que j'ai eu ce qui est penalisant pour un site plus ancien et d'optimiser/changer les meta (title , desc etc)a repetition ils paraitrais que c'est direct la sand box, un peu comme un system de code de carte bancaire lol au bout de 3 essaie t'a carte est bloquer :)
Enfin c'est l'impression que j'en ai concernant mon site
 
WRInaute discret
rituel a dit:
Voir l'article remis en forme par Olivier ici

Comme tu le fais toi aussi remarquer, je n'ai aucune science infuse et je ne me permettrais pas d'affirmer que mon expérience du phénomène de la sandbox soit la loi universelle ... etc... etc.

Je ne pense pas que l'effet sandbox ait quoi que ce soit à voir avec ces jolies courbes superposées supposées démontrer qu'un site qui suit un chemin banalisé soit avantagé par rapport à celui qui fait soudainement parler de lui quitte à disparaître un peu plus tard.

Tout au mieux, la théorie des courbes serait une fuite organisée par Google dans le but de cacher une réalité beaucoup moins idéale : générer du revenu.

Tout mes sites suivent le même cheminement pour se faire référencer : D'abord un développement, puis l'analyse et l'optimisation des mots-clefs et éléments de la page, et enfin présentation auprès de 150 moteurs de recherche et annuaires, à peu de chose près toujours les mêmes, via mon logiciel dédié. Il me semblerait qu'à peu près tous les webmasters suivent ce cheminement qui n'est rien d'autre que logique et "normal". J'ajoute à cela quelques soumissions manuelles dans des annuaires dont je connais l'efficacité.

Selon la théorie de l'évolution normale, tout mes sites devraient à l'issue de ce processus obtenir le même résultat, c'est à dire soit le sandbox, soit un PR normal de 2 pour commencer. Mais ce n'est pas ce qui se passe, et même le contraire. Un site mal ou pas fini aura un PR de 2 et un autre qui serait d'une meilleure finition et d'un intérêt majeur se retrouvera dans la sandbox. Aucun des critères mentionnés dans les articles que je lis n'est à retenir. Et c'est même le contraire. Un site bien fini qui a nécessité un gros investissement a beaucoup plus de chances de se retrouver dans la sandbox. Pourquoi ? Mais c'est évident. Pour rentabiliser l'investissement il faudra avoir recours à la publicité payante de Google. Ceci me semble être la seule variable de l'affaire.

Mais je le répète, je n'ai pas la science infuse, juste mon expérience vue de mon coté de la lorgnette.
 
WRInaute discret
zffectivement la viellesse du site joue un role très important pour goole, j'ai constaté la même chose avec mes sites



mx a dit:
Je penses que cette théorie a du vrai, mais cela ne joue pas au niveau des BLs car comme le dit olivier, tu peux avoir plusieurs milliers de BLs en un mois, mais au niveau du positionnement, donc du trafic,
ce 17 décembre 2004, tous mes sites ont chuté ou presque en terme de positionnement (trafic) et non en terme de Bls ou de PR (qui ne cesse d'augmenter)
1 seul de mes sites a vu son trafic en hausse (positionnement), et c'est le plus vieux (né en 2000)
Je pense donc que depuis cette fin d'année 2004, il n'est pas impossible que ce type d'algo soit mis en place.
ce qui voudrait dire 2 choses:
seul les plus vieux sites en ages peuvent posséder de trés nbrx BLs avec du trafic, et pour les + jeunes rien ne serre d'en avoir trop sinon au bout d'un certain temps leur positionnement devient obsolète ...
msn et aol en comparaison a google n'utilise pas ce type d'algo, ils utilise quasi la même chose que google avant le 17 décembre 2004 (pour mes positionnments mots clef)
 
WRInaute discret
une société qui crée un 11ème site et met des milliers de liens vers ce site sur les autre, c pas suspet oui mais du point de vu de google c suspect:) pcq les vrai liens pour google c ceux que les autres mettent sur leur site pcq il voient que ton site est important pas ceux que tu mettent sur tes sites rien pour avoir des liens


WebRankInfo a dit:
je ne suis pas d'accord avec tout ce que tu dis rituel... Par exemple tu dis
Seulement, un site qui part avec une quantité faramineuse de BLs quelques jours après la naissance, et qui n'évolue plus jamais, autrement dit qui acquiert son stade de maturité en terme de popularité dès sa naissance est supsect.
Il faut savoir différencier plusieurs cas, car si je lance un nouveau site, et que naturellement je mets un lien vers ce site sur chaque page de WRI, alors ce site va obtenir du jour au lendemain des centaines ou milliers de BL. Est-ce suspect ? Dans ce cas, non, pas du tout.
Autre exemple : une multinationale possédant déjà 10 sites (un par pays) en crée un onzième pour l'ouverture d'une nouvelle filiale. Ce 11ème site gagne rapidement des milliers de BL, et je ne considère pas ça comme suspect.

Je pense que c'est sur le schéma des liens (nb de sites différents, origine des sites, adresses IP, format des liens, etc.) qu'il peut y avoir des analyses faites par Google (et qui nous échappent).

Que ce soit utile pour la pertinence des résultats de Google est une autre question...
 
WRInaute accro
Je m'excuse, j'ai lu plusieurs articles sur la sandbox, mais j'ai un réel mal à comprendre. :oops:

On coule à cause de quoi ?
Trop de liens vers notre site ?
Ou trop de Visites sur notre site ?
 
WRInaute discret
Je m'y perd aussi avec tout ces remarques, certes pertinentes, qui vont dans tous les sens!

Je suis en pleine sandbox avec mon site et sérieusement après avoir lu les 8 pages de messages... je réalise à quel point cet effet est compliqué et mystérieux....

Il y a certes des pistes logique et pas trop difficile à prouver.. mais l'effet sandbox est difficile à décortique au cas par cas...

Entre les exceptions et les cas extrêmes.. c'est difficile de voir clair !

merci à tous pour votre participation très enrichissante
 
Nouveau WRInaute
100 % correct

trix a dit:
Le truc que me plait pas dans les courbes c'est que ca signifierais qu'un site qui resterait dormant pendant 3 mois devrait mettre un gros coup pour retourner dans la norme. C'est pas particulierement coherent avec ce que j'ai vu sur certains de mes domaines.

Le truc dont il faut aussi se souvenir quand on se frotte a Google c'est qu'ils ont une base absolument enorme de sites qu'ils ont vu evoluer dans le temps. La taille de la base est pas du tout un probleme pour eux, c'est au contraire un avantage. Une fois qu'il ont determine les parametres d'une formule qui permet de decider si les changements sont coherents avec le reste de leur base, ils ont pas a faire de calculs compliques sur toute la base. Ils font tourner certains filtres uniquement sur les premieres N pages de resultats pour les expressions les plus interessantes.

D'apres moi c'est d'ailleurs ce qui peut expliquer le phenomene de sandbox:
Un site fait un bond supernaturel sur un des parametres -> il est dans les sites potentiellement interessants sur des "expressions surveillees", Google regarde son evolution et determine que l'evolution n'est probablement pas naturelle -> le site est supprime des sites a considerer dans la partie de la base la plus active (sites qui apparaissent dans les N premieres pages des expressions interessantes).
Quand le webmaster s'est calme et que les parametres de son site recommencent a evoluer de maniere acceptable, il est de nouveau considere avec les pages standard.

En lisant vos post j'ai retenu les message et net-attoo en particulier et celui de trix.



- pourquoi les anciens algorithmes de cloaking ne marchent plus ?

=> contenu du site trop similaire, site trop récent = désindéxation

- mon concurrent arrive premier sur une requete très commerciale , mais il répete les mot clés énormément :

=> contenu similaire dans tous le site, site de plusieurs années


- comment se faire desindexer ou sandboxer ou ... ?

=> lire les tutoriaux sur le web
 
WRInaute discret
Intéressant.

Mais la menace de la Sandbox n'est possible qu'en fonction de nombreux BL 'louches', ou s'agit il plutôt d'un verdict général sur le site face à l'analyse de ses BL, liens, mots clef, famlink ou autre ?

Sinon, il faut aussi garder à l'espris que chaque positionnement de page sera fait en fonction d'un "mot clef" ou "phrase clef".
Un site n'ira pas forcément en Sandbox selon ces mots.

Question simple: Un site en Sandbox sera donc invisible quel que soit les mots clef ?
 
Nouveau WRInaute
Bonjour,
Je pourrais répondre à cette question en citant l'experience avec un de mes sites. Il était très bien positionné jusqu'a la semaine dernière (7 mars). Pour au moins 10 expressions très populaires en anglais, il était dans le top 5.

Ce que je peux observer quelques jours plus tard, c'est qu'il a perdu son positionnement pour toutes ces requêtes. Pour certaines, il est rendu à la page 50. Cependant, pour deux des requêtes sur lesquelles je travaile depuis toujours, je n'ai pas été trop déclassé. C'est un peu comme si j'avais perdu mon travail des derniers mois.

Je suis convaincu que c'est l'effet sandbox et non un changement d'algo. J'ai référencé plusieurs sites de la même façon, et les autres n'ont pas perdu leur positionnement.

J'ai du franchir la limite de la sur optimisation...
 
Nouveau WRInaute
Cette discussion est très longue, mais très intéressante.

Et il m'inspire de nombreuses choses. en vrac :

1. La valeur ajoutée de Google est de présenter à l'internaute les pages les plus pertinentes, et pas d'afficher celles dont le PR est le plus élevé. La pertinence étant un critère éminement difficile à calculer, il est normal que l'algorythme de Google évolue pour tenir compte de l'évolution du Web en général, et des talents des Webmestres à contourner ses calculs.

2. Les sites dont la survie dépend des pubs qu'ils proposent sont dans la même problématique que les télévisions privées gratuites, c'est à dire la course à l'audience, donc au PR. La première page de Google est de taille finie, alors que le nombre de candidats augmente et qu'il est donc de plus en plus difficile d'y être. La compétition est donc rude, et il y a beaucoup moins de gagnants que de perdants.

3. L'internaute lui-même reste libre de choisir son moteur ou de résister à l'égémonie de Google, ainsi que de zapper les pubs ou de systématiquement voir aussi les pages 5 et 6 ... il intervient donc aussi dans le processus et l'évolution se fait dans un bal à trois ou l'équilibre est instable et évolue de manière perpételle, chacun des acteurs tirant de son coté. Il est possible que de faibles variations dans l'équilibre provoquent des "ruptures" de style "bac à sable".

4. On commence à vivre des situations un peu surréalistes. Par exemple, à quoi sert un annuaire payant, si justement le critère pour lequel on y est est justement d'être payant ... inversement, pourquoi être obligé de s'inscrire à un annuaire gratuit pour y être (mon-annuaire.com, l'annuaire de tous ceux qui sont dans mon-annuaire.com!)?

Toute cela me fait penser à des phénomènes d'interaction complexes du style accident : le "bac à sable" serait alors la traduction d'une somme de variations des paramètres pris en compte par Google, couplés à l'apparition ou la modification d'autres sites, le tout avec un algorythme donc Google lui-même ne maîtrise peut-être pas les résultats. Par exemple, pour passer de première page en troisième page, il suffit simplement que onze sites vous passent devant ... et pourtant quel impact sur le trafic!

On se retrouve alors dans une situation de style aléatoire ou l'accident dépend non pas d'un facteur, mais de combinaisons de facteurs qui provoquent "parfois" des accidents. Et donc, tout comme pour un accident de voiture, vous pouvez avoir un accident en ayant commis la seule faute d'être sur la route d'un chauffard, ou n'avoir jamais d'accident alors que vous êtes un chauffard manifeste.

Pour aller plus loin, la solution qui marche dans cette hypothèse est la gestion des risques :

1. Vous vous assurez contre le bac à sabe (la LOYD'S devrait faire ce genre d'assurance)
2. Vous apprenez à conduire prudement (ça ne supprime pas le risque mais ça en diminue la probabilité)
3. Vous anticipez l'évolution suivante de vos partenaires (par exemple quid si Google supprime carrement l'influence du BL dans ses calculs!).

Voilà ... et encore merci pour cette somme d'informations.
 
WRInaute discret
Comment trouver l'age d'un site ?

Slt

Je n'arrive pas à remettre la main, sur ce site qui donnait l'age de vos sites.

Quelqu'un aurait cette URL svp ?

J'essais d'expliquer pourquoi un site que j'ai publié fin janvier, n'apparait sur aucune des expressions choisis, même pas avec le nom du site. Or toutes les pages sont indexé, et bcp de BL ont été créés, ainsi qu'une 10è de Communiqué de presse publiés.

Il faudrait que je sache quel age ont les concurents.
 
Nouveau WRInaute
Bonjour,

Ma théorie a rajouté sur celle-ci est un poil differente,

Je pense que l'algorythme de google se sert de references,

En partant de se principe un site etant jeune ( age de la premiere page indexée ), peut donc bénéficier d'un "filtre spécial" lors du filtrage des requetes ( "prime de fraicheur"), pour ne pas paraitre laisé, sur les mots clés meme concurenciels (a condition d'avoir un optimisation propre), car etant jeune : aucune référence.

Quelques jours apres, google a recuperé une référence, par rapport au nombre de visites et la popularité de chaque mots clés (chez moi l'effet de sand box se fait ressentir sur les pages contenant des mots clés concurenciels, sinon les autres pages a mots cles "rares" garde leurs traffic naturel).

Si les visites par rapport a la popularité du mot clés et la position dans google ne correspond pas a la référence, les pages avec mots clés concurenciels peuvent "disparaitre des requetes" pendant un certains temps,
jusqu'a la prochaine comparaison (10 aines de jours).

NB : je pense qu'a l'efffet sand box s'ajoute la dure lois du maitres google ( sa taille ), les data center n'etant pas alignés, on pourrait remarqué des baisses de traffic liés a des consultations dans des data center non "alignés".
 
WRInaute accro
On ne peut pas placer d'adresse en signature, rsx781.
Mets ton site dans ton profil, il apparaîtra sous un bouton "www" sous tes messages.
 
Olivier Duffez (admin)
Membre du personnel
rsx781 a fait remonter des vieilles discussions uniquement pour y caser des liens vers son site.
Malheureusement pour lui/elle, les modos s'en sont rendus compte et l'ont désactivé (son compte)
 
WRInaute discret
Bonjour,

Dans la théorie de la sandbox, l'on nous présente comme "peu naturel" par exemple le fait qu'un nouveau site obtienne très rapidement un nombre trop important de backlinks puis plus rien ...

Sur ce point, une chose me laisse perplexe. Si un nombre soudain et important de backlinks peu sembler dans de nombreuses situations "surnaturel" selon moi ce n'est pas toujours le cas. Aujourd'hui par exemple on parle de plus en plus de Buzz marketing, ce qui signifie qu'un site peu très bien et de façon tout à fait naturelle et pourtant très ponctuelle obtenir des dizaines de milliers de backlinks en quelques jour puis plus rien. On dit qu'il a fait un Buzz.

Pensez vous qu'en pleine époque ou on parle de plus en plus de marketing viral etc. Google n'y ai pas pensé. cette théorie signifie que Google pénaliserait alors les nouveaux sites ayant fait un buzz sur une actualité ou une vidéo ?

Bien sur l'auteur dit lui même qu'il ne s'agit que d'une théorie et on sait qu'il faut la prendre avec distance.

Je pense moi qu'il y'a une chose sur laquelle nous pouvons tous tomber d'accord, Google pénalise ce qui n'est pas naturel.

Et la théorie de la sandbox nous présente comme peu naturel le fait qu'un site obtienne très vite pleins de backlinks puis s'essoufle.

Pourtant il me semble qu'il y'a d'autres choses que Google pourrait utiliser et qui d'après moins sont plus fiables pour "détecter le surnaturel"

Sur la plus part des annuaires que les référenceurs utilisent on ne peut obtenir un lien que vers une page d'accueil.
Pourtant et c'est vrai pour la plus part des sites web (je n'ai pas vérifier statistiquement, mais je pense que c'est une information qu'on peut considérer comme juste)les pages les plus intéressantes en matière de contenu pour les visiteurs, sont les pages internes. La page d'accueil est un peu le tableau de bord du site c'est une page très importante, mais si je veux faire un lien, en tout bien tout honneur, depuis mon site vers une information que j'ai trouvé vraiment intéressante, je ne vais pas (sauf cas précis) lier une page d'accueil mais une page interne d'un autre site.

Attention, ceci ne veut pas dire qu'un lien vers une page d'accueil est considéré comme suspect mais plutôt qu'est considéré comme suspect un site avec pleins de liens vers sa page d'accueil (qui pourtant ne représente pas le coeur du contenu du site en question) et très peu vers ses pages internes qui sont censées être les plus intéressantes...

Dans ce cas précis on peu être sur à 99 % que ce n'est pas naturel, donc pénalisé.

Et pourquoi pas une autre théorie sur la sandbox ...

Imaginons un site dont la page d'accueil bénéficie d'un nombre intéressant de liens entrants, mais dont les autres pages en bénéficient très peu. Alors ces pages internes deviendraient comme un fardeau, lourd à porter par la page d'accueil qui serait en fait "la seule roue motrice" du site. Plus le référenceur appuye sur l'accélérateur (à forse d'inscription dans les annuaires et d'échanges de liens bidons en footer) plus tout le site s'enlise.

L'une des forces de WRI, c'est d'avoir de nombreux liens certes, mais de nombreux liens aussi vers des pages internes, en gros il n'a pas qu'une roue motrice qui serait sa page d'accueil mais pleins d'autres roues motrices (plus petites peut êtres...mais motrices).

Vous direz sans doute, celui là il a pas inventé l'eau chaude, mais par contre ce me parait plus pertinent que l'histoire de pleins de backlinks en peu de temps, c'est peut être la destination de ces backlinks qui compte plus que leur nombre.
 
WRInaute discret
Hello,
Ben écoute, je sais pas trop pour les autres mais je n'arrive pas à obtenir de liens profonds ou si peu.
Ce qui fait que j'ai environ 2% de liens vers des pages internes (plus de 1000 liens enfin, ça c'est selon GG), sur un site où il y a pourtant du contenu. Pas de sandbox, et je doute qu'il en ait dans l'avenir. Je ne crois pas que Google punisse l'échange de liens comme ça.
Sinon je me dis qu'un site qui prend trop de liens d'un coup mangera de la poussière (c'est encore arrivé récemment, je l'ai lu dans un autre sujet), après toute la question est de savoir combien de temps dure la pénalité.
Si c'est une pénalité pour backlinks, à mon avis, un site en sort vite.

La pénalité pour duplicate par contre... J'ai l'impression qu'on s'en sort en supprimant les doublons, mais pas seulement : il faudrait également bien reprendre son entrée de backlinks. (c'est aussi une impression)
 
WRInaute accro
J'aime bien la théorie de masterblaster, qui pourrait nous faire sortir de ce mythe de la sandbox.
Il n'est pas certain qu'il y ait une sandbox volontairement créée par les programmeurs.
Dans les systèmes informatiques complexes et modulaires, il y a des comportements émergents qui se créent tout seul, en conséquence imprévisible des comportements programmés.
La sandbox est peut-être tout simplement un comportement émergent, et comme elle apporte un plus au moteur de recherche il n'a pas été modéré.
Ca expliquerait qu'il soit difficile à comprendre et à anticiper, et que certains se sentent injustement touchés alors que des concurrents passent entre les mailles du filet.
 
WRInaute accro
L'effet SandBox est peut-être aussi simplement prévu. A rapprocher de QDF.

N'oublions pas que ce que beaucoup voient comme une chute (effet SandBox) peut tout aussi bien être la fin d'une prime de fraîcheur, tout simplement ;)
 
WRInaute passionné
100% en phase avec HawkEye.

QDF, c'est l'évaluations des requêtes sur un critère "recherche de l'info fraiche". Cet algo implique qu'on qualifie aussi les pages comme "info fraiche".
D'autre part, cela renvoie à une notion de "cycle de vie de l'information". Y'a des infos "météores". On en parle fort, mais pas longtemps. A l'inverse, y'a des pages dont la valeur informationnelle se maintiens dans le temps.

Là dessus, on peut greffer des notions de lutte anti-spam. Si ça a la couleur et l'odeur du buzz (plein de backlinks d'un coup), mais que ça ne fait pas vraiment du buzz (du trafic ?)... c'est du spam.

A mons sens, ce qu'on appelle Sandbox peut aussi bien recouvrir un effet naturel du cycle de vie de l'information, ou un filtre anti-spam qui aurait tenté de truander une notoriété.
 
WRInaute discret
MagicYoyo a dit:
100% en phase avec HawkEye.

QDF, c'est l'évaluations des requêtes sur un critère "recherche de l'info fraiche". Cet algo implique qu'on qualifie aussi les pages comme "info fraiche".
D'autre part, cela renvoie à une notion de "cycle de vie de l'information". Y'a des infos "météores". On en parle fort, mais pas longtemps. A l'inverse, y'a des pages dont la valeur informationnelle se maintiens dans le temps.

Là dessus, on peut greffer des notions de lutte anti-spam. Si ça a la couleur et l'odeur du buzz (plein de backlinks d'un coup), mais que ça ne fait pas vraiment du buzz (du trafic ?)... c'est du spam.

A mons sens, ce qu'on appelle Sandbox peut aussi bien recouvrir un effet naturel du cycle de vie de l'information, ou un filtre anti-spam qui aurait tenté de truander une notoriété.

Salut à tous,

A quoi servirait la prime de fraîcheur, si c'est pour renvoyer aussi tôt une page dans les basfonds. La prime de fraîcheur est un concept qui me rend perplexe. Non pas qu'il n'existe pas mais, c'est plus à la notion de "prime" que je ne crois pas.

On va pas reparler tous les critères d'un bon positionnement, mais gardons les 2 plus importants le contenu et les liens

Un site est nouveau, on ne peut pas le juger sur son nombre de liens entrants, puisqu'il est nouveau. Par contre les robots l'ont trouvé et il a été classé, peut être au début uniquement en fonction de son contenu, non pas parce qu'il a bénéficié d'une prime quelconque, mais simplement parce que son contenu est jugé pertinent ... dans quelque temps (?) il devra passer le baptême du feu, comme ses grands frères et concurrents, en étant aussi jugé pour sa "fiabilité" (sa popularité, ses liens entrants). Ce serait peut être une des raisons pour lesquelles beaucoup de sites font une chute vertigineuse après un assez bon positionnement en début de vie.
 
Nouveau WRInaute
rituel a dit:
Voir l'article remis en forme par Olivier ici

Bonjour,
Je connais actuellement un problème de référencement sur Google. Depuis le début du mois d'Avril, pas mal de pages de notre site internet ont disparu des 1ère requêtes (alors que nous étions parmi les 1er jusqu'à présent sur les mots clés travaillés). Nous avons travaillé notre référencement à partir des meta title, description et keywords et cela portait ses fruits. Début Avril, nous avons travaillé l'esthétique en centrant nos pages en les habillant de jambes gauche et droite légèrement grisées (avec un back ground). Visiblement cela à un poids (je ne le connais pas exactement), est-ce que cela n'aurait pas causé une lenteur à l'ouverture et un moindre repérage de la part de Google ? Par ailleurs, on m'a aiguillé sur le phénomène de sandbox que vous abordez. Pour votre info, ce back ground n'est pas accepté sur certains postes (sécurisés) et nos pages s'affichent toutes en noir ... seuls le texte couleur et les photos ressortent. Cela ne concernent pas tout le monde mais c'est un indice de plus qui me fait dire que ce back groud en question n'est pas le bienvenu. Que l'on se comprenne bien, mon objectif n'est pas de tout ratisser sur le web (je ne cautionne pas cette tendance qui décridibilise bcp de monde) mais simplement de ressortir correctement sur les mots clés en rapport avec une activité (+ la destination géographique en question).
Qu'en pensez-vous ? Est-ce que j'enlève cet habillage ?
Merci par avance.
Frédéric
 
WRInaute discret
langnat a dit:
Nous avons travaillé notre référencement à partir des meta title, description et keywords et cela portait ses fruits.
Bonjour Frédéric,

Sincèrement, la sandbox comme étant un passage obligatoire cela m'étonnerait, mais je ne renie pas son existence.

Je pense qu'il n'y a pas de fumée sans feu, si vous avez chuté dans les SERP, il y'a peut être une raison rationnelle à cela avant de parler de sandbox.

Vous dites avoir travaillé à partir des balises méta title, description et "keywords" ... ce n'est peut être pas suffisant ?
Avez vous aussi optimisé votre contenu pour améliorer votre positionnement ?
A moins que vous n'ayez dans votre secteur que très peu de concurrence.

Et mis à part le contenu, quelle est votre stratégie actuelle dans la recherche de backlinks ? Les annuaires ?
Est ce que vous contactez d'autres webmasters pour établir des échanges de liens, est ce que vous essayez d'obtenir des liens placés dans le coeur du contenu ? Est ce que vous axez votre recherche de backlinks seulement pour la page d'accueil ou est ce que vous obtenez aussi des liens vers les autres pages de votre site ?

Certains disent que quand vous êtes dans le bac à sable, le mieux c'est de ne rien faire et d'attendre, personnellement je ne suis pas pour les stratégies attentistes... mais attention beaucoup de ceux qui disent qu'il vaut mieux ne rien faire sont beaucoup beaucoup plus calés que moi. Mais c'est un forum et on y partage des points de vue :-)

langnat a dit:
Début Avril, nous avons travaillé l'esthétique en centrant nos pages en les habillant de jambes gauche et droite légèrement grisées (avec un back ground). Visiblement cela à un poids (je ne le connais pas exactement), est-ce que cela n'aurait pas causé une lenteur à l'ouverture et un moindre repérage de la part de Google ?

La prise en compte par Google de la vitesse de chargement de vos pages, c'est plus que jamais de l'actualité et cela a un impact sur le positionnement. Mais est ce que votre background a alourdi votre page à ce point ?
A vous de comparer votre vitesse de chargement et celle de vos concurrents et voyez si c'est significatifs ... j'ai des doutes.

Masterblaster
 
WRInaute discret
masterblaster a dit:
langnat a dit:
Nous avons travaillé notre référencement à partir des meta title, description et keywords et cela portait ses fruits.
Bonjour Frédéric,

Sincèrement, la sandbox comme étant un passage obligatoire cela m'étonnerait, mais je ne renie pas son existence.

Je pense qu'il n'y a pas de fumée sans feu, si vous avez chuté dans les SERP, il y'a peut être une raison rationnelle à cela avant de parler de sandbox.

Vous dites avoir travaillé à partir des balises méta title, description et "keywords" ... ce n'est peut être pas suffisant ?
Avez vous aussi optimisé votre contenu pour améliorer votre positionnement ?
A moins que vous n'ayez dans votre secteur que très peu de concurrence.

Et mis à part le contenu, quelle est votre stratégie actuelle dans la recherche de backlinks ? Les annuaires ?
Est ce que vous contactez d'autres webmasters pour établir des échanges de liens, est ce que vous essayez d'obtenir des liens placés dans le coeur du contenu ? Est ce que vous axez votre recherche de backlinks seulement pour la page d'accueil ou est ce que vous obtenez aussi des liens vers les autres pages de votre site ?

Certains disent que quand vous êtes dans le bac à sable, le mieux c'est de ne rien faire et d'attendre, personnellement je ne suis pas pour les stratégies attentistes... mais attention beaucoup de ceux qui disent qu'il vaut mieux ne rien faire sont beaucoup beaucoup plus calés que moi. Mais c'est un forum et on y partage des points de vue :-)

langnat a dit:
Début Avril, nous avons travaillé l'esthétique en centrant nos pages en les habillant de jambes gauche et droite légèrement grisées (avec un back ground). Visiblement cela à un poids (je ne le connais pas exactement), est-ce que cela n'aurait pas causé une lenteur à l'ouverture et un moindre repérage de la part de Google ?

La prise en compte par Google de la vitesse de chargement de vos pages, c'est plus que jamais de l'actualité et cela a un impact sur le positionnement. Mais est ce que votre background a alourdi votre page à ce point ?
A vous de comparer votre vitesse de chargement et celle de vos concurrents et voyez si c'est significatifs ... j'ai des doutes.

Masterblaster

Pour en revenir à la vitesse de chargement d'une page, à quel point pensez vous que cela peut influer sur le positionnement d'un site? Quelqu'un aurait des éléments ou un retour d'expérience à faire partager suite par exemple à un changement de serveur?
 
Discussions similaires
Haut