Comment savoir si on a l'effet sandbox

WRInaute occasionnel
WRInaute impliqué
ce filtre sert normallement à écarter les "duplicate contents", et evite d'afficher le même domaine plus de deux fois sur une page de resultats Google. Normallement, aucun rapport avec la Sandbox.
 
WRInaute impliqué
http://www.alexa.com/data/details/traff ... rouver.com

il s'est pris la claque de fin décembre ...
a voir ce tel type de courbe, on se demande si en fin décembre, google n'as pas remis les horloges à l'heure par rapport au changement d'octobre, cela ne s'applique pas à tous les sites, certains ont progréssé en octobre, et ont continué leur inflation en décembre, (alors qu'auparavant, c'etait trés stable jusqu'a 2 ans avant voir en baisse, nottement wri), une chose est sur, google a bien changé qqchose en octobre et décembre 2004, sur plusieurs dizaine de sites de plus de 2 ans, les analyses de courbes présentent toutes des variations importantes de trafic (hausse ou baisse) à ces dates.
 
WRInaute impliqué
WebRankInfo a dit:
pour WRI les données Alexa ne reflètent pas vraiment la réalité...
bizarre, chez moi pour les gros changements de trafic, les courbes sont trés représentatives, à se demander comment ils font (par les positions moteur je crois, ce qui pourrait expliquer la chose vu que wri doit avoir énormément de bookmark)
 
WRInaute accro
vpx a dit:
ce filtre sert normallement à écarter les "duplicate contents", et evite d'afficher le même domaine plus de deux fois sur une page de resultats Google. Normallement, aucun rapport avec la Sandbox.

oui mais là il ne l'affiche meme pas une fois avec le filtre, c est pas normal qu'il l affiche sans le filtre à cette position. ce résultat est étonnant qd meme
 
WRInaute impliqué
Je confirmes de mon coté, que je retrouves toutes mes places en première page sur mes mots clefs perdu mi décembre avec cette variable filter.
 
WRInaute impliqué
Pour le filter=0, il y a aussi le facteur "duplicate content" qui entre en compte, d'apres le manuel de l'API Google. Maintenant, reste à savoir s'il s'agit bien du même filtre, et ce qu'on doit entendre dans ce cas pour "duplicate content".
Pour les données d'alexa, je constate que pour mon trafic, c'est en general completement bidon. La tendance est même souvent inversée. Les données sont issues des statistiques de la Toolbar Alexa. A mon avis cette toolbar n'est pas assez repandue en France pour permettre d'en tirer des statistiques valables.
 
WRInaute occasionnel
Merci MX pour ta réponse,

Maintenant subis-tu une désindexations tranquil ( 5% par jours approx) depuis que tu as perdu une bonne partie de ton traffic ?


En passant ici on parle pour les sites qui ont 10 000 pages indexés et plus... et qui ont perdu 30 a 50% de leur traffic.

Si vous êtes dans ce cas essayez ca et répondez-nous pour qu'on puisse comprendre ce qui s'est passé, ( et ne plus refaire la même gaffe )

https://www.google.com/search?hl=fr&q=vo ... ion-a-vous

ensuite vous rajouter tout simplement a la fin &filter=o

https://www.google.com/search?hl=fr&q=vo ... s&filter=0


Aussi votre-expression-a-vous c mieu que ce soit votre nom de domaine, le teste est plus concluent comme pour avec enfintrouver.

Nous savons que c'Est pour le "duplicate content" mais je crois que l'algo du filter=0 n'a pas été mis a jours avec l'effet sandbox.

Car si c'étais juste le duplicate content cela ne ferais que rajouter les pages duplicate de chaque domaine... MAIS pas changé l'ordre des postions...
 
WRInaute occasionnel
Il s'agit de deux choses distinctes. Ce que tout le monde appelle l'effet sandbox n'engendre à priori pas de désindexation de tes pages (en tout en ce qui me concerne ca m'est jamais arrivé les deux fois ou j'ai pu observer ce phénomène sur mes sites) mais principalement de te faire beaucoup reculer dans les résultats de google sur les requètes très demandées. En revanche, tes pages peuvent etre désindexées pour x raisons (trop similaires à des pages déjà existantes, pas assez de backlinks vers ton site, pr trop faible, triche...).
 
Discussions similaires
Haut