Néanmoins l'explication la plus probable est que Google ait rajouté le paramètre temps dans l'évolution du classement de ses résultats. S'inspirant des courbes de croissance de bébés dans nos vieux carnets de santé, les ingénieurs de Google ont théorisé le développement d'un site Internet et de sa popularité.
Au début de sa vie, un site Internet est peu connu et peu populaire (son PageRank est faible), puis au fur et à mesure du début de sa vie, il gagne en popularité et son PageRank augmente suivant une courbe de croissance similaire à celle du poids d'un nouveau né. Si au contraire un site démarre avec un PageRank très élevé puis que son PageRank n'évolue plus ou si soudainement son PageRank augmente sans évoluer par la suite, Google considère que ce site a un développement suspect, signe de référencement abusif et le place alors dans le SandBox : le bac à sable. Heureusement pour la santé de nos webmasters cette mise à l'écart n'est que temporaire !
mx a dit:idem kanta
rituel a dit:Pour le deuxième post, j'ai plus ou moins un scoop : Arrêtez les échanges de liens croisés à la création d'un site, vous vous enterrez vivant dans la Sandbox.
Kanta a dit:rituel a dit:Pour le deuxième post, j'ai plus ou moins un scoop : Arrêtez les échanges de liens croisés à la création d'un site, vous vous enterrez vivant dans la Sandbox.
Tu pense que c'est moins pénalisant lorsque le site existe depuis déjà un certain temps ?
rituel a dit:Voir l'article remis en forme par Olivier ici
mx a dit:Je penses que cette théorie a du vrai, mais cela ne joue pas au niveau des BLs car comme le dit olivier, tu peux avoir plusieurs milliers de BLs en un mois, mais au niveau du positionnement, donc du trafic,
ce 17 décembre 2004, tous mes sites ont chuté ou presque en terme de positionnement (trafic) et non en terme de Bls ou de PR (qui ne cesse d'augmenter)
1 seul de mes sites a vu son trafic en hausse (positionnement), et c'est le plus vieux (né en 2000)
Je pense donc que depuis cette fin d'année 2004, il n'est pas impossible que ce type d'algo soit mis en place.
ce qui voudrait dire 2 choses:
seul les plus vieux sites en ages peuvent posséder de trés nbrx BLs avec du trafic, et pour les + jeunes rien ne serre d'en avoir trop sinon au bout d'un certain temps leur positionnement devient obsolète ...
msn et aol en comparaison a google n'utilise pas ce type d'algo, ils utilise quasi la même chose que google avant le 17 décembre 2004 (pour mes positionnments mots clef)
WebRankInfo a dit:je ne suis pas d'accord avec tout ce que tu dis rituel... Par exemple tu disIl faut savoir différencier plusieurs cas, car si je lance un nouveau site, et que naturellement je mets un lien vers ce site sur chaque page de WRI, alors ce site va obtenir du jour au lendemain des centaines ou milliers de BL. Est-ce suspect ? Dans ce cas, non, pas du tout.Seulement, un site qui part avec une quantité faramineuse de BLs quelques jours après la naissance, et qui n'évolue plus jamais, autrement dit qui acquiert son stade de maturité en terme de popularité dès sa naissance est supsect.
Autre exemple : une multinationale possédant déjà 10 sites (un par pays) en crée un onzième pour l'ouverture d'une nouvelle filiale. Ce 11ème site gagne rapidement des milliers de BL, et je ne considère pas ça comme suspect.
Je pense que c'est sur le schéma des liens (nb de sites différents, origine des sites, adresses IP, format des liens, etc.) qu'il peut y avoir des analyses faites par Google (et qui nous échappent).
Que ce soit utile pour la pertinence des résultats de Google est une autre question...
trix a dit:Le truc que me plait pas dans les courbes c'est que ca signifierais qu'un site qui resterait dormant pendant 3 mois devrait mettre un gros coup pour retourner dans la norme. C'est pas particulierement coherent avec ce que j'ai vu sur certains de mes domaines.
Le truc dont il faut aussi se souvenir quand on se frotte a Google c'est qu'ils ont une base absolument enorme de sites qu'ils ont vu evoluer dans le temps. La taille de la base est pas du tout un probleme pour eux, c'est au contraire un avantage. Une fois qu'il ont determine les parametres d'une formule qui permet de decider si les changements sont coherents avec le reste de leur base, ils ont pas a faire de calculs compliques sur toute la base. Ils font tourner certains filtres uniquement sur les premieres N pages de resultats pour les expressions les plus interessantes.
D'apres moi c'est d'ailleurs ce qui peut expliquer le phenomene de sandbox:
Un site fait un bond supernaturel sur un des parametres -> il est dans les sites potentiellement interessants sur des "expressions surveillees", Google regarde son evolution et determine que l'evolution n'est probablement pas naturelle -> le site est supprime des sites a considerer dans la partie de la base la plus active (sites qui apparaissent dans les N premieres pages des expressions interessantes).
Quand le webmaster s'est calme et que les parametres de son site recommencent a evoluer de maniere acceptable, il est de nouveau considere avec les pages standard.
jh_ice a dit:Slt
Je n'arrive pas à remettre la main, sur ce site qui donnait l'age de vos sites.
TireAuFlanc a dit:jh_ice a dit:Slt
Je n'arrive pas à remettre la main, sur ce site qui donnait l'age de vos sites.
Pourquoi ne pas utiliser simplement le whois ?
MagicYoyo a dit:100% en phase avec HawkEye.
QDF, c'est l'évaluations des requêtes sur un critère "recherche de l'info fraiche". Cet algo implique qu'on qualifie aussi les pages comme "info fraiche".
D'autre part, cela renvoie à une notion de "cycle de vie de l'information". Y'a des infos "météores". On en parle fort, mais pas longtemps. A l'inverse, y'a des pages dont la valeur informationnelle se maintiens dans le temps.
Là dessus, on peut greffer des notions de lutte anti-spam. Si ça a la couleur et l'odeur du buzz (plein de backlinks d'un coup), mais que ça ne fait pas vraiment du buzz (du trafic ?)... c'est du spam.
A mons sens, ce qu'on appelle Sandbox peut aussi bien recouvrir un effet naturel du cycle de vie de l'information, ou un filtre anti-spam qui aurait tenté de truander une notoriété.
rituel a dit:Voir l'article remis en forme par Olivier ici
Bonjour Frédéric,langnat a dit:Nous avons travaillé notre référencement à partir des meta title, description et keywords et cela portait ses fruits.
langnat a dit:Début Avril, nous avons travaillé l'esthétique en centrant nos pages en les habillant de jambes gauche et droite légèrement grisées (avec un back ground). Visiblement cela à un poids (je ne le connais pas exactement), est-ce que cela n'aurait pas causé une lenteur à l'ouverture et un moindre repérage de la part de Google ?
masterblaster a dit:Bonjour Frédéric,langnat a dit:Nous avons travaillé notre référencement à partir des meta title, description et keywords et cela portait ses fruits.
Sincèrement, la sandbox comme étant un passage obligatoire cela m'étonnerait, mais je ne renie pas son existence.
Je pense qu'il n'y a pas de fumée sans feu, si vous avez chuté dans les SERP, il y'a peut être une raison rationnelle à cela avant de parler de sandbox.
Vous dites avoir travaillé à partir des balises méta title, description et "keywords" ... ce n'est peut être pas suffisant ?
Avez vous aussi optimisé votre contenu pour améliorer votre positionnement ?
A moins que vous n'ayez dans votre secteur que très peu de concurrence.
Et mis à part le contenu, quelle est votre stratégie actuelle dans la recherche de backlinks ? Les annuaires ?
Est ce que vous contactez d'autres webmasters pour établir des échanges de liens, est ce que vous essayez d'obtenir des liens placés dans le coeur du contenu ? Est ce que vous axez votre recherche de backlinks seulement pour la page d'accueil ou est ce que vous obtenez aussi des liens vers les autres pages de votre site ?
Certains disent que quand vous êtes dans le bac à sable, le mieux c'est de ne rien faire et d'attendre, personnellement je ne suis pas pour les stratégies attentistes... mais attention beaucoup de ceux qui disent qu'il vaut mieux ne rien faire sont beaucoup beaucoup plus calés que moi. Mais c'est un forum et on y partage des points de vue
langnat a dit:Début Avril, nous avons travaillé l'esthétique en centrant nos pages en les habillant de jambes gauche et droite légèrement grisées (avec un back ground). Visiblement cela à un poids (je ne le connais pas exactement), est-ce que cela n'aurait pas causé une lenteur à l'ouverture et un moindre repérage de la part de Google ?
La prise en compte par Google de la vitesse de chargement de vos pages, c'est plus que jamais de l'actualité et cela a un impact sur le positionnement. Mais est ce que votre background a alourdi votre page à ce point ?
A vous de comparer votre vitesse de chargement et celle de vos concurrents et voyez si c'est significatifs ... j'ai des doutes.
Masterblaster