Déindexer un site sandboxé

WRInaute impliqué
Bonjour,

j'ai un site qui a toute les caracteristiques du sandboxing google, apres quelques echanges avec google france, ca tourne en rond.

Si j'ai bien compris le phenomène serait lié a des sites indexés apres juin 2004 info peché sur le net parce que Google france, ne rebondit jamais sur le terme dans mes echanges que j'ai eu avec eux, n'aurais je pas intérêt a faire une déindexation totale du site pour le relancer plus tard ?

Ou est ce que j'attends la saint GlinGlin
Florent
 
WRInaute impliqué
C'est ce que je pense. Je suis en train de le faire pour un site qui ne demarre pas. Il faut faire en sorte que le site sorte completement de l'index (pas forcement facile d'ailleurs). Et ensuite, relancer le site avec de nouveaux BL.
Je ne sais pas si c'est la meilleure solution, mais au moins on essaye un truc...
 
WRInaute discret
Le fait de sortir un site de l'index ne changera rien, au contraire !!!

Parcequ'une fois qu'il sera de nouveau réindexé, il sera à nouveau mis dans la sandox !!!

La dure réalité du moment et du référencement c'est qu'il faut du temps et.... c'est tout à fait logique !!!
 
WRInaute impliqué
Pas forcement... Déjà la Sandbox, il faudrait savoir si c'est une legende ou pas.. Et ensuite, certain sites se lancent tres bien en quelques semaines, et d'autres au contraire semblent être mis de coté. Mais parfois c'est tellement long qu'on est tenté de changer la config des backlinks pour essayer de repartir sur de bonnes bases.
 
WRInaute impliqué
Une autre solution serait de les désindexer complètement et de le laisser se réindexer petit à petit. L'effet Sandbox semble s'appliquer aux sites qui ont déjà beaucoup de pages lors de leur lancement.
 
WRInaute discret
Tout dépend du type de requête (concurrentielle ou pas). Mais la sandbox est une réalité et pas une théorie. Il peut y avoir des exceptions mais elles restent exceptionnelles :D
 
WRInaute impliqué
Mais la sandbox est une réalité et pas une théorie. Il peut y avoir des exceptions mais elles restent exceptionnelles
Comment tu peux en être aussi sur? Des tas de criteres peuvent permettre de determiner qu'un nouveau site fait des abus. Difficile de savoir si c'est un de ces critères qui a été boosté et qui penalise certain nouveaux sites, ou s'il y a vraiment une Sandbox dans laquelle sont mis de coté tous les sites, sauf rares exceptions comme tu le dis.
Dans le cas de l'existence de la Sandbox, d'une manière générale, on peut dire que Google met 6 mois à indexer efficacement un site. Niveau performance, on peut mieux faire, et MSN ferait mieux...
 
WRInaute impliqué
3 points échangé sur ce post:

mes echanges avec google, ouj e n'ai pas arreté de leur demander si mon site subissait un effet de sandboxing, aucune reponse de leur part, il contourne la chose. A ce demander si cet effet est pas maitrisé par GG.

Deuxio: le site en question qui me posent probleme a tres peu de pages 10 environ donc reindéxer en douceur, je suis pas sur que cela soit utile ou que cet effet s'applique au site avec beaucoup de pages.

tercio, mon site n'est pas penalisé par gg, ils m'on dit qu'il etait conforme.

Bon si cet effet s'applique a tous les nouveaux sites, les modos de WRI, pourraient ils
officialiser un debut de théorie. :roll:

Florent

ps a ce demander si GG ne sandboxe pas les mots cles tres concurrentiels ce qui serait mon cas ( et apres il me propose adword) pour ressortir du lot.
 
WRInaute discret
Par rapport à l'existence on non de la sandbox, ce que l'on sait actuellement c'est qu'il est très difficile d'apparaître rapidement dans les premiers résultats de google sur une requête concurrentielle. Les nouveaux sites sont donc pénalisés (j'en ai l'expérience tous les jours dans mon métier; ndlr : référenceur) et on ne peut rien y faire, que se soit avec des backlinks ou sur-optimsiation...
Donc maintenant que l'on appelle ça effet sandbox ou autre ce c'est pas ce qui estle plus important ! Comme appeler le pagerank pagernak, on s'en fout. L'important c'est le concept.
Je vais bientôt faire un article avec preuves à l'appui sur l'existence de la sandbox (http://www.blog-referencement.com/index.php?2004/11/05/3-effet-sandboxing-sur-google) .
 
Olivier Duffez (admin)
Membre du personnel
vpx a dit:
Certains sites se lancent tres bien en quelques semaines, et d'autres au contraire semblent être mis de coté.
Parles-tu de sites à toi ? Si oui, pourrais-tu nous dire ce qui te semble différencier les sites qui se lancent bien des autres ?

parmi les critères à envisager, je citerais pour commencer :
- l'ancienneté de l'existence du nom de domaine pour Google (date de la première indexation d'une page de ce nom de domaine)
- évolution du nb de BL dans les premiers jours / premières semaines
- origine des BL (même IP, même classe C, même réseau de sites, autres)
- présence dans DMOZ

je vous invite à suggérer d'autres critères et encore mieux à apporter des exemples pour étayer ou contrer ces "théories"...
 
Olivier Duffez (admin)
Membre du personnel
MJweb, je ne sais pas si tu crois à une prise en compte spéciale des requêtes dites concurrentielles mais pour ma part je me suis toujours demandé pourquoi (et surtout comment) Google pourrait faire un algo spécial pour les requêtes dites concurrentielles.

Il me semble assez difficile de décrire ce qu'est une requête concurrentielle. Ca ne dépend pas que du nombre de résultats affichés par le moteur.


Enfin, pour donner un exemple, le Dico du Net a été très bien positionné rapidement (3 semaines environ). Je ne sais pas s'il a été "victime" du sandbox mais je ne l'ai jamais vu. Pourquoi, je ne sais pas.
 
WRInaute impliqué
en effet WRI a raison cela n'a aucun rapport avec le degré concurrentiel de la requete, des sites sont mis en sandbox pour des requetes de moins de 30 000 alors que d'autres sortent desuite et restent pour des requetes de plus de 3 000 000.

j'ai aussi essayé de ne pas faire de BL au début puis d'en faire progressivement (sur 3 mois) et hop ca a pas marché non plus, quand google a décidé de foutre le site en sandbox il a décidé quoi !

ca vient effectivement d'ailleurs :?
mais d'où :?:

la réponse est ailleurs
c'était pas le slogan d'un film ca :lol:
 
WRInaute discret
Moi je pense que l'un des premiers critères de pertinence pour Google est l'ancienneté du nom de domaine.

En ce qui concerne les requêtes concurrentielles, elles se définiraient selon 3 critères :
- Le nombre de pages de résultats sur la requête
- Le nombre de recherche sur la requête (et ça google le sait très bien)
- L'aspect commercial de la requête (cf florida). Et ça google le sait bien aussi.

En gros les BL ne serviraient plus beaucoup. Il faudrait un site à contenu et attendre pour que google sorte votre site de la sandbox.

Mais il faut avoir une approche globale du fonctionnent de Google, ce qu'il recherche c'est la pertinence alors un site peut-il être considéré comme pertinent en quelques mois ?
Non, c'est évident. C'est comme dans d'autres secteurs, les leaders sont les anciens et les premiers arrivés !!! Alors pourquoi pas sur les moteurs de recherche aussi !!!
 
WRInaute impliqué
mon cas :

j'ai lancé un site au mois de mai/juin 2004:

10 pages environ toutes indexés avec PR 5 a 4, mon cles et BL optimisés sur les mots "creation site web.inscription dmoz,... ( pas de techniques agressive pour referencer le site. )

donc sur cette combinaison, je n'apparais meme pas, tout simplement, si je prends d'autres mots cles fort, c'est pareil, je ne me retrouve loin loin,

https://www.google.fr/search?q=creation+ ... rt=60&sa=N

je suis en avant derniere position sur cette page

j'ai des bl qui me proviennent de mon annuaire et vu que j'ai pas mal de pages, je me demande si ca ne fait pas trop d'un coup pour une premiere apparition dans l'index de GG et donc = sandboxing.

Florent
 
WRInaute impliqué
je suis pas d'accord
à la question "est ce qu'un site est pertinent en quelques mois ?"
moi je dirais oui, pourquoi pas !

si ma page parle que de "tee chirt rouge pour homme" et que je suis le pro des tee shirt rouge et bien ma page est pertinente sur la requete "tee shirt rouge", pourquoi ne pas l'afficher alors que les autres sites marchands n'ont que des tee shirt blanc.

c'est pas parce qu'il se passera quelques mois que je serais meilleur ou moins cher !
ou alors j'aurais déjà déposé le bilan à force d'attendre :?
 
WRInaute discret
un sondage réservé aux webmasters s'occupant de sites mis en ligne après juin serait intéressant ;)

Pour ma part l'effet sandboxing ne fait pas de doute :
- site en ligne depuis juin
- site dans Dmoz depuis début septembre (dans le google directory puis plus :lol:)
- requêtes concurrentielles (grands nombres de réponses), mais pas pris d'assault par des référenceurs pro (du coup les premières places semblent facilement accessibles).
- faible nombre de BL (mais supérieur à ceux de mes concurrents), très grand nombre de liens externes.
- à la rue pour toutes mes requêtes
- et point important aucun effet sur le positionnement de toutes les optimisations/désoptimisations effectuées sur le site.


Edit : même effet constaté sur Yahoo mais pas sur msnsearch
:wink:
 
WRInaute discret
Il y'a un aspect essentiel qu'il faut également prendre en compte :
référencer un site est devenu un vrai métier et l'on parle d'optimisation.

Il y'a quelque année on parlait juste de référencement !!! Il y avait très peu de professionnels. Google et les autres ont créé un marché (celui du référencement) et des entreprises et des emplois ont été créés... aujourd'hui c'est le chemin inverse, le revers de la médaille: Google casse le marché qu'il a crée pour en créer un nouveau plus rentable pour lui (le positionnement payant).

On revient à la base, au temps où on optimisait pas et où les sites étaient bien classés. Mais c'est une réalité : le futur du référencement et de l'optimisation est dans le passé.

les sites simples et anciens sont ceux qui marchent le mieux et google tend à le prouver.
 
WRInaute impliqué
Je partage completement l'avis de Caro ci-dessus. ca n'a pas de sens de ressortir apres des requetes moins pertinantes voire hors sujet parce que on est un nouveau site, ou que l'on optimise son site . sans parler de la premiere page ce que nous visons tous, cependant.

promis je ne ferais plus de xhtml strict validé, ca fait trop pro et apres faut que je prenne des adwords :lol:

ps: Mjweb, cette theorie me semble un peu casse gueule avec la sortie en grande pompe de msnsearch, ou Gg aurait plutot interet a retourner de la pertinence. Parce que Microsoft pourrait bien lui bouffer des parts de marché.

dans les annees 90 j'etais un fidele de yahoo, le jours ou ils ont annoncé "les malheureux" qu'il prenait un nouveau moteur de recherche nommé google, j'y suis allé et n'en suis jamais reparti.
 
Olivier Duffez (admin)
Membre du personnel
MJweb a dit:
Moi je pense que l'un des premiers critères de pertinence pour Google est l'ancienneté du nom de domaine.

En ce qui concerne les requêtes concurrentielles, elles se définiraient selon 3 critères :
- Le nombre de pages de résultats sur la requête
- Le nombre de recherche sur la requête (et ça google le sait très bien)
- L'aspect commercial de la requête (cf florida). Et ça google le sait bien aussi.
je trouve ce passage d'un de tes messages représentatif des autres messages : tu avances des idées sans aucune preuve.

Ne vois pas mon reproche comme une agression, je souhaite simplement éviter qu'on base des discussions sur des faits non pouvés.

Par exemple, l'aspect commercial de la requête (cf. Florida comme tu dis) n'a jamais été prouvé (ou alors donne-moi une analyse qui le fasse).
 
WRInaute impliqué
Lentreprenaute a dit:
dans les annees 90 j'etais un fidele de yahoo, le jours ou ils ont annoncé "les malheureux" qu'il prenait un nouveau moteur de recherche nommé google, j'y suis allé et n'en suis jamais reparti.

Ne serait ce pas plutot dans les annees 2000 :wink:
 
B
Bernard
Guest
WebRankInfo a dit:
MJweb a dit:
Moi je pense que l'un des premiers critères de pertinence pour Google est l'ancienneté du nom de domaine.

En ce qui concerne les requêtes concurrentielles, elles se définiraient selon 3 critères :
- Le nombre de pages de résultats sur la requête
- Le nombre de recherche sur la requête (et ça google le sait très bien)
- L'aspect commercial de la requête (cf florida). Et ça google le sait bien aussi.
je trouve ce passage d'un de tes messages représentatif des autres messages : tu avances des idées sans aucune preuve.

Ne vois pas mon reproche comme une agression, je souhaite simplement éviter qu'on base des discussions sur des faits non pouvés.

Par exemple, l'aspect commercial de la requête (cf. Florida comme tu dis) n'a jamais été prouvé (ou alors donne-moi une analyse qui le fasse).

"Je pense" + un conditionnel ca me parait pas une affirmation :roll:

Qund aux preuves on en aura évidement jamais.
Je connais un gars qui loue des mobilehomes a Argeles avec un petit site et qui ne recoit plus un seul visiteur de Google depuis 1 an alors que sont site est toujours indexé. C'est une évidence que le modèle commercial de GG se met en place progressivement et que les filtres sont aussi la pour faire vendre des Adwords.
 
WRInaute accro
C'est une évidence que le modèle commercial de GG se met en place progressivement et que les filtres sont aussi la pour faire vendre des Adwords.

La y'a pas de conditionnel c'est même très affirmatif mais toujours pas la moindre preuve... :roll:
 
B
Bernard
Guest
Google filtre les sites purement commerciaux, les marques blanches

Mais c'est pas un reproche que je fais a Google, puisque son modèle commercial repose la vente de mot clé.
 
WRInaute accro
caro a dit:
en effet WRI a raison cela n'a aucun rapport avec le degré concurrentiel de la requete, des sites sont mis en sandbox pour des requetes de moins de 30 000 alors que d'autres sortent desuite et restent pour des requetes de plus de 3 000 000.
je suis d'accord avec toi ... je ne pense pas que l'effet SandBox soit lié à la requète ... d'ailleurs quand un site est dans la SandBox c'est pour toutes les requètes ...

shrom a dit:
L'effet Sandbox semble s'appliquer aux sites qui ont déjà beaucoup de pages lors de leur lancement.
je suis également de ton avis ... l'effet SandBox semble s'appliquer aux sites qui démarrent dans des conditions "suspectes" pour les raisons que j'ai tenté d'expliquer ici ...
 
B
Bernard
Guest
Cendrillon a dit:
je suis d'accord avec toi ... je ne pense pas que l'effet SandBox soit lié à la requète ... d'ailleurs quand un site est dans la SandBox c'est pour toutes les requètes ...
...

des preuves :?:

J'ai un site qui parle de "mot1 de mot2" qui est une expression concurentielle, et je ne peux absolument pas sortir dessus ( 500 premiers resulats) alors qu'il sort plustot bien sur "mot1"
 
WRInaute accro
Google filtre les sites purement commerciaux, les marques blanches, les sites trop optimiser sur des mots clés , etc ...

:?:

C'est quoi la définition d'un site commercial ?

les marques blanches : je vois pas le rapport, comment gg peut savoir que c en marque blanche :D
Je comprends pas comment GG pourrait savoir ce qu'est une requete "commercial'...

trop optimisé : ca déja c'est plus possible
 
WRInaute accro
Bernard a dit:
J'ai un site qui parle de "mot1 de mot2" qui est une expression concurentielle, et je ne peux absolument pas sortir dessus ( 500 premiers resulats) alors qu'il sort plustot bien sur "mot1"
encore une fois tout cela n'est qu'hypothèses (mais n'est ce pas la base de la recherche ?) ... mais avec les hypothèses que j'ai indiqué (elles sont peut être fausses, mais reconnais que je reste cohérente jusqu'au bout) si ton site est mis en SandBox parceque "suspect" pourquoi serait il pénalisé sur certaines requètes et pas sur d'autres ? quel intérêt ?

et pour en revenir à ta question : qui te dit que tu es dans la SandBox ... tu es peut être tout simplement bien référencé sur mot1 et moins bien sur "mot2 de mot3" ... :wink:
 
WRInaute impliqué
Cendrillon a dit:
je ne pense pas que l'effet SandBox soit lié à la requète ... d'ailleurs quand un site est dans la SandBox c'est pour toutes les requètes ...

J'ai un site qui subissait l'effet sandbox ( il en est sorti la semaine dernière ).
- optimisation sur "mot-cle1 mot-clé2"
- un nombre élevé de BL

Le site ne sortait pas du tout sur la recherche "mot-clé1 mot-clé2" ( requête moyennement concurrencielle, j'ai donc pu regarder tous les résultats), par contre il ressortait plutôt bien placé sur d'autre requêtes parfois beaucoup plus concurencielles.

Depuis la sortie du sandbox, il ressort avec peine sur ma requête optimisée ( page 3 ) et presque plus sur les autres requêtes.

Qu'est-ce que j'ai changé entre temps: rien.
 
WRInaute accro
shrom a dit:
J'ai un site qui subissait l'effet sandbox ( il en est sorti la semaine dernière ).
il y est resté combien de temps ? qu'est ce qui te fais dire que tu y étais ? et que tu en es sorti ?

shrom a dit:
Le site ne sortait pas du tout sur la recherche "mot-clé1 mot-clé2" ( requête moyennement concurrencielle, j'ai donc pu regarder tous les résultats), par contre il ressortait plutôt bien placé sur d'autre requêtes parfois beaucoup plus concurencielles.
donc d'après toi, il était SandBox(é) uniquement sur les requètes sur lesquelles tu étais (sur)optimisé ?
 
WRInaute occasionnel
euh question :

j'ai sorti un site début octobre, celui-ci fut très bien indexé et positionné pour presque chaque mots clés (une expression par page), mais depuis deux semaines, il se fait désindexer par GG sans aucune raison.

Il n'a pas de contenu redondant, ni de refresh, ni de texte caché, etc. enfin bref un site tout ce qu'il y a de plus réglo, valide aux normes W3C html.

cela peut-il être l'effet sandbox ?
 
WRInaute accro
yep a dit:
cela peut-il être l'effet sandbox ?
encore une fois c'est très difficile de répondre très précisement car tout ce que l'on dit n'est basé sur rien de vraiment concret ...
toujours est il que d'après tout ce que j'ai lu sur la question, mon interprétation est la suivante : l'effet SandBox (s'il existe vraiment) ne semble s'appliquer qu'à la mise en service d'un site, et avoir pour effet de pénaliser les pages (par exemple décaler la position que tu aurais normalement dans les résultats de x pages) et non de les désindexer ...

alors pour répondre à ta question : je dirais non !
 
WRInaute discret
Pourquoi parlez vous de l'effet sandbox pour les sites qui ont été mis en ligne depuis juin?

Je connais un site qui est sandboxé depuis bien plus longtemp que juin et on peut faire ce que l'on veut densité, balise, lien etc... rien n'y fait.

De nombreux test ont été réalisés:
Par contre pour répondre à un critère soulevé par wri il n'est pas dans DMOZ!!!
:wink:
c'est je crois le seul point qui n'est pas été vérifié pour "casser l'effet sandbox"!
 
B
Bernard
Guest
Peut etre une autre solution pour contourner le pb ?

http://forums.digitalpoint.com/showthre ... 800&page=3

" I had domains not ranking with google, I'd gottem them countless links, they had pr they simply should just should rank.

So, I did a 301 redirect for the entire domain onto the back of one of my existing domains on the same topic.

The exisiting domain ranked well already.

PRESTO within a week I had all the rankings I wanted. Content wasn't the problem the sandbox was.
I've copied this serveral times over several domains. All with massive sucess, hope it helps.


=> c'est je crois le seul point qui n'ait pas été vérifié pour "casser l'effet sandbox"! =>> Ou plutot l'annuaire google, car en ce moment, ils font le ménage."
"
 
WRInaute occasionnel
Bernard a dit:
J'ai un site qui parle de "mot1 de mot2" qui est une expression concurentielle, et je ne peux absolument pas sortir dessus ( 500 premiers resulats) alors qu'il sort plustot bien sur "mot1"

Il n'est peut être tout simplement pas assez optimisé sur ces mots clés par rapport aux sites concurrents...


J'ai un site qui n'apparaissait pas dans les 50 premières pages il y a encore 2 mois et qui pourtant me semblait bien concu pourtant pour le positionnement. J'ai regardé ce que je pouvais améliorer, j'ai optimisé les techniques connues (backlinks, liens internes, mots clés etc...) et en 3 semaines je me suis retrouvé en première page sur plusieurs expressions très demandées (plus de 3 millions de résultats souvent).

C'est peut être pas lié mais regarde ce que font tes concurrents et compare par rapport à ton site afin de voir si tu peux pas améliorer certaines choses. On croit parfois que le site est nickel alors qu'en fin de compte il y a bcp de petites choses qui feront la différence.
 
WRInaute occasionnel
Bernard a dit:
Google filtre les sites purement commerciaux, les marques blanches, les sites trop optimiser sur des mots clés , etc ...

MJweb a dit:
On revient à la base, au temps où on optimisait pas et où les sites étaient bien classés. Mais c'est une réalité : le futur du référencement et de l'optimisation est dans le passé.

les sites simples et anciens sont ceux qui marchent le mieux et google tend à le prouver.

Mouais il y a certainement une part de vrai dans tout ca, on dit souvent que la suroptimisation tue l'optimisation. Et pourtant... Il suffit de regarder les sites de jeux, sonneries portables, casinos en ligne etc... C'est ultra méga optimisé et pourtant ces sites apparaissent dans les premières positions.

Attention je ne parle pas des sites qui font appel au cloaking, techniques de frames ou pages sattellites mais ceux qui répètent un nombre incroyable de fois les mots clés dans la page, qui utilisent des textes de liens répétés avec très souvent les même mots clé, des noms de répertoires à rallonge, des urls du style mota-motb.com/mota-motb/motb-mota/mota-motb.php etc...

Plus optimisés que ca pour certains ca relève de l'impossible et pourtant aucune pénalité. Donc pour l'effet Sandbox, ca joue peut-être mais c'est loin d'être le seul critère.

Et en ce qui concerne le positionnement, je ne connais pas l'avenir mais pour l'instant sans optimisation point de salut.
 
WRInaute discret
Je vais essayer d'amener un peu de concret dans le débat; j'ai déjà fait une comparaison dans le topic "deindexation des pages dynamiques" entre 2 sites totalement identiques : même squelette spip, même urlrw, même hébergeur, même nombre de backlinks, quasiment le même nombre de pages.

-www.footmercato.net : lancé en juillet dernier, il a profité semble-t-il de la prime de fraicheur durant 1 petit mois, les visiteurs arrivaient plutôt sur les pages articles; depuis, le site a été partiellement désindexé, les visiteurs arrivent par l'index (qui se positionne pas trop mal). Les quelques pages encore indexées sortent très mal.

-www.zetudiants.net : le site a presque 2 ans, la quasi totalité des pages sont correctement indexées ( avec description); les visiteurs arrivent en majorité par les pages aricles.

A noter que le 2eme site (zetudiants) a un forum phpbb, je ne pense pas que cela change grand chose.
Je pense qu'à partir de ce comparatif il y a quelques avancés possible sur l'effet "sanbox".
 
Olivier Duffez (admin)
Membre du personnel
Svinkels c'est intéressant mais es-tu sûr que ça ait un rapport avec l'effet sandbox ? Il me semble qu'on est tous d'accord sur le fait que l'effet sandbox se traduit par une pénalité en terme de positionnement mais pas en indexation.
 
WRInaute occasionnel
A mon avis je ne suis pas le seul à ne pas comprendre : c'est quoi, de manière claire, sandbox ?
 
WRInaute discret
WebRankInfo a dit:
Svinkels c'est intéressant mais es-tu sûr que ça ait un rapport avec l'effet sandbox ? Il me semble qu'on est tous d'accord sur le fait que l'effet sandbox se traduit par une pénalité en terme de positionnement mais pas en indexation.

Je pense que je cumule une désindexation et l'effet "sandbox" (si il existe rérellemnt);
par exemple, j'ai créé une rubrique pour le concours lumitra et je sors uniquement en 20eme page sur google; il est en de même pour nombre de mes pages
 
B
Bernard
Guest
Kanta a dit:
... Il suffit de regarder les sites de jeux, sonneries portables, casinos en ligne etc... C'est ultra méga optimisé et pourtant ces sites apparaissent dans les premières positions.

mais depuis un an 80% de sites qui proposent ce genre de service sont tombés au fond du classement ou sont partiellement ou totalement désindexés.
( 2 phénomènes qui ne semblent pas etre liés aux même filtre)


et je dois te contre-dire sur un point : le sites qui sortent maintenenant sur "s*nnerie" ne sont pas vraiment optimisés. Surtout en ce qui concerne les backlinks par rapport à ce qui existait il y a 1 an.
 
WRInaute impliqué
Code:
De nombreux test ont été réalisés: 
Par contre pour répondre à un critère soulevé par wri il n'est pas dans DMOZ!!! 
 
c'est je crois le seul point qui n'est pas été vérifié pour "casser l'effet sandbox"!

le site dont je parle qui subit le sandox est dans dmoz, et je le rappelle "parce que j'ai l'impression que l'on melange un peut tout" "mal referencé n'est pas sandboxé*", toutes mes pages sont indexé avec un pr de 5 a 4.

*ma citation a quat sous du jour :lol:
 
WRInaute accro
Kanta a dit:
Mouais il y a certainement une part de vrai dans tout ca, on dit souvent que la suroptimisation tue l'optimisation. Et pourtant... Il suffit de regarder les sites de jeux, sonneries portables, casinos en ligne etc... C'est ultra méga optimisé et pourtant ces sites apparaissent dans les premières positions.
regarde celui qui sort 1er sur un mot clé hyper concurentiel : s0nner1es ... c'est un annuaire (dont le webmaster est parmis nous) et qui manisfestement n'est pas vraiment suroptimisé sur ce mot clé ... :wink:

certes il en reste des sites dont tu parles, mais l'effet SandBox semble plutôt réservé aux nouveaux sites, et les sites dont tu parles sont peut être là depuis longtemps ... :wink:
 
Nouveau WRInaute
Lentreprenaute a dit:
j'ai un site qui a toute les caracteristiques du sandboxing google

Je dois avouer que je découvre ici la notion de sanboxing... et là j'ai un vieux doute...

Mon doute vient de deux points.
1) mathématiques : la notion de sandbox reviendrait (si j'ai bien compris) a avoir introduit une notion de "doute" dans un algorythme (parce google est un algorythme, aussi complexe soit-il) ? Pour ceux qui s'y connaissent un peu, la notion de "doute" n'est finalement qu'une exception à la règle... et vu les conséquences de l'exception "sandbox" (le non référencement correct de nouveaux sites = faible mise à jour de l'index = moins de pertinence de l'index...), croyez vous vraiment que Google aurait pensé faire une bêtise pareil???

2) un exemple : un client sur lequel je travail... site créé cet été avec beaucoup de moyens et dans un secteur très concurentiel et très travaillé dans le domaine du référencement (****** *****)... Quand je dis "beaucoup de moyen", celà veut dire énormément de partenariats et donc de "gros bl" (genre tf1...) et une bonne optimisation (je peux bien me jeter quelques fleurs...)... Donc exactement tout pour rentrer dans la notion de sandbox! Et bien à ma grande surprise, je n'ai jusqu'ici rencontré aucun problème pour le référencement (cela fonctionne même mieux et plus vite que prévu)!

Bref, on peut toujours trouver des exemples et leurs contraires. Je pencherais donc plutôt pour la patience ! J'ai certainement eu de la chance sur les délais, d'autre on carément eu de la malchance, mais rien ne démontrant l'existance du sandboxing (voir même il y a des preuves du contraire). Je maintient mon principe de base : rien ne sert de s'arracher les cheuveux, tout bon travail finit toujours par payer!
 
Olivier Duffez (admin)
Membre du personnel
non le sandboxing n'a pas de rapport avec une notion de doute (ou bien j'ai raté les articles qui décrivent ceci).
il s'agit d'une pénalité infligée à certains (ou tous ?) sites neufs (pénalité de positionnement et non pas d'indexation), qui dure un certain temps (pour ne pas dire un temps certain).
 
WRInaute impliqué
Cendrillon a dit:
shrom a dit:
J'ai un site qui subissait l'effet sandbox ( il en est sorti la semaine dernière ).
il y est resté combien de temps ?

Environ 3 mois

qu'est ce qui te fais dire que tu y étais ?

Comme je l'expliquais, il était optimisé sur une requête 'motcle1 motcle2' et ne sortait pas du tout dans les résultats.

et que tu en es sorti ?

Et bien il ressort sur cette requête.

shrom a dit:
Le site ne sortait pas du tout sur la recherche "mot-clé1 mot-clé2" ( requête moyennement concurrencielle, j'ai donc pu regarder tous les résultats), par contre il ressortait plutôt bien placé sur d'autre requêtes parfois beaucoup plus concurencielles.
donc d'après toi, il était SandBox(é) uniquement sur les requètes sur lesquelles tu étais (sur)optimisé ?

C'est ce que j'ai constaté.

Maintenant, ce ne sont que des constatations personnelles et non une théorie.

Je dois bientôt lancer un nouveau site, il est clair que le lancement se fera lentement ( mise en ligne progressive des pages ) avec le minimum de BL au départ et sans être optimisé du tout.

Pour en revenir au phénomène, j'ai lu quelque part que Google admettait qu'il y ait un effet de sandboxing mais qu'il n'est pas volontaire de leur part, c'est juste une combinaison de filtres qui amène le phénomène.
 
WRInaute occasionnel
Cendrillon a dit:
Kanta a dit:
Mouais il y a certainement une part de vrai dans tout ca, on dit souvent que la suroptimisation tue l'optimisation. Et pourtant... Il suffit de regarder les sites de jeux, sonneries portables, casinos en ligne etc... C'est ultra méga optimisé et pourtant ces sites apparaissent dans les premières positions.
regarde celui qui sort 1er sur un mot clé hyper concurentiel : s0nner1es ... c'est un annuaire (dont le webmaster est parmis nous) et qui manisfestement n'est pas vraiment suroptimisé sur ce mot clé ... :wink:

certes il en reste des sites dont tu parles, mais l'effet SandBox semble plutôt réservé aux nouveaux sites, et les sites dont tu parles sont peut être là depuis longtemps ... :wink:

Si tu regarde le premier sur les mots cles jeux casino par exemple la suropimisation est flagrante. Ca devient presque ridicule : https://www.google.fr/search?hl=fr&c2cof ... cher&meta= Ceci dit je t'accorde qu'ill existe depuis longtemps en effet mais ce que je voulais souligner c'est que l'effet sandbox ne s'applique pas uniquement pour la suroptimisation comme le laissaient entendre certains.

Je sors un peu du sujet mais le troisième sur sonneries (je l'ai pris au hasard si ca se trouve les deux devants sont pire) est pas à propremement parler suroptimisé mais il triche carrément c'est pas mieux lol. Il suffit de descendre à la 10ème ligne pour voir un h1 avec des mots cles en visibility hidden et la suite est du même accabit. C'est fou que Google ne puisse rien faire contre ces methodes alors que c'est explicitement interdit.
 
WRInaute impliqué
un petit point s'impose 8)

sandbox : filtre appliqué dès l'ouverture d'un site visant à pénaliser son positionnement.

causes probables : site louche, trop de BL d'un coup, enrée directe dans la base aux premières places, ...

exemple perso : requete commerciale supérieure à 300 000 résultats.
Site indexé, 6 BL importants, PR5 dès la 1ere quinzaine, mis desuite en sandbox, sur la page 20 environ pendant 3 mois, rien fait pendant cette période, puis d'un coup 3ème sur la page 1.
causes probables : aucune idée, à part que le site devait de tout facon arrivait sur la première page dès le démarrage, tout était réuni (bl, pr, optimisation ...), donc google freinerait il les sites trop ambitieux ?


analyse commune :
ce serait bien si on pouvait chacun donner des exemples concrets avec des délais de sandbox, des chiffres par rapport au nombre de résultat, de l'aspect commercial du terme, nb de BL et progression, ..., afin d'essayer d'en tirer des conclusions.
 
WRInaute discret
Je suis assez intrigué par ce soit disant effet "sandbox" et vu que je vais lancer 2 sites le mois prochain, je me demandais si il était envisageable de faire une petite étude sur le bac à sable.
Je réfléchis à un protocole permettant une étude fiable. Le souci est que selon vos supputations, de nombreux critères sont à prendre en compte et que peut-être 2 sites ne seront pas suffisants pour donner des résultats clairs.

Les 2 sites à venir auront la même structure, auront dans le ndd les 2 mots clefs sur lequels j'essaierais de me postionner ( ces 2 combinaisons de 2 mots clefs comportent moins de 300 000 résultats chacune sur google), les noms de domaine n'ont jamais été utilisés.
 
WRInaute accro
Oui ce serait très intéressant, mais alors ouvre un nouveau thread dans "Tests et études de cas" en décrivant clairement ces deux sites et ce que tu enviseage de faire pour chacun d'eux pour éviter (ou pas) le SandBoxing, etc ...

et nous suivront avec toi les évolutions de leurs indexations respectives ... :wink:
 
WRInaute impliqué
personne ne poste de données précises pour les étudier et essayer d'en tirer des conclusions ???

eh bien c'est pas comme ca qu'on va progresser :?
pour moi c'est juste dans post en dessus.
 
WRInaute impliqué
Personnellement, En décembre je vais attaquer mon 6ieme mois de sandbox,voila pour info.

Florent

ps: j'espere pouvoir vous dire tres bientot que la sanbox dure 6 mois :)
 
Nouveau WRInaute
WebRankInfo a dit:
non le sandboxing n'a pas de rapport avec une notion de doute (ou bien j'ai raté les articles qui décrivent ceci).
il s'agit d'une pénalité infligée à certains (ou tous ?) sites neufs (pénalité de positionnement et non pas d'indexation), qui dure un certain temps (pour ne pas dire un temps certain).

Pénalité imposée à certains, pendant un certain temps : c'est bien ce qu'on appele une exception dans un algorythme il me semble!

caro a dit:
Site indexé, 6 BL importants, PR5 dès la 1ere quinzaine, mis desuite en sandbox, sur la page 20 environ pendant 3 mois, rien fait pendant cette période, puis d'un coup 3ème sur la page 1.

Si google impose ce genre d'étape aux sites qui ont d'entrée un très fort potentiel de visibilité, c'est bien qu'ils expriment un doute sur sa réel pertinence!

Je réitère donc ma question
jeromek a dit:
vu les conséquences de l'exception "sandbox" (le non référencement correct de nouveaux sites = faible mise à jour de l'index = moins de pertinence de l'index...), croyez vous vraiment que Google aurait pensé faire une bêtise pareil???

Je n'ai pas de réponse à cette question, et même si effectivement l'étude appronfondie des chiffres et situations peut s'avérer instructive (comme le suggère caro), la réponse à ma question de fond serait pour moi tout aussi instructive!
 
WRInaute impliqué
j'ai une idée :lol:

d'après les hypothèses suivantes :

1) pour google, la sandbox permet d'empêcher les sites spammeurs et les sites poubelles de squater les résultats.
et oui il y a pas très longtemps quand un site était blacklisté et bien le spammeur en ouvrait un autre la semaine suivante et hop il revenait dans les résultats avec un autre nom de domaine, aujourd'hui ca prend du temps :wink:

2) en même temps ce filtre nuit aussi aux bons et propres nouveaux sites mais google préfère que les bons nouveaux sites attendent un peu plutot que les spammeurs blacklistés puissent desuite réouvrir des sites et revenir poluer les résultats.


3) ce filtre ne s'applique qu'aux sites nouveaux

4) les causes probables constatés par les membres de ce forum et d'ailleurs sont certainement trop de BL dès le départ, trop d'optimisation, trop de trucs quoi :D


conclusion :

et si le critère de google ne se basait pas du tout sur les BL ou autres mais simplement sur la position d'entrée du site.
par exemple un site qui rentrerait desuite dans la base de données sur la page 1 d'un requete de plus de 100 000 résultats serait louche !
pourquoi ? car c'est souvent les spammeurs qui arrivent à placer un site si vite en haut du podium (multiples sites et BL fictifs, pages cloakées avec densité énorme ...).


google sanctionnerait les sites trop ambitieux:
est ce que vos sites mis en sandbox ont obtenu de bonnes positions en sortant ?

si la réponse est à l'unanimité oui, alors on pourrait essayer de faire un site non optimisé, de le laisser pendant une semaine ou deux comme ca, puis de l'optimiser afin de voir si on évite la sandbox.

qu'en pensez vous ?
 
WRInaute impliqué
Caro,

Je pense que les bl ont de l'importance "dans mon cas" j'ai des bl sur creation site internet par exemple depuis mon annuaire, apres j'ai des title etc optimisé sur cette combinaison sur mon site sanboxé.

Dans le cas ou mon site sortirait en 1ere page "revons un peu" sur ce genre de combinaison, je pense que mes bl doivent l'y aider, mais l'essentiel est peut etre comme tu dis : entrée fracassante sur des resultats hyperconcurrentiels " je commence a causer comme Vedrine et son hyper puissance". = sandbox.

Doit on lancer un site en plusieurs etapes, mal optimisé et revenir sur l'optimisation apres indexation du site. Ce qui dans tous les cas, va nous rallonger la visibilité d'un site.


Je me demande, si les sites comme wri, subirait cet effet s'il lancait un site avec un bl en bas de pages, ou autremennt dit un pr 6, 7 pourrait il etre avantagé pour lancer un site,

Wri nous parlait du dico du net qui n'a pas eu d'effet "SBXG" a priori?
 
Olivier Duffez (admin)
Membre du personnel
je confirme : le dico du net ne semble pas avoir subi d'effet sandbox.
il a eu moultes BL dès sa naissance, une inscription précoce dans DMOZ, et des bons positionnements dès la sortie de la maternité :)

par contre livre-google.com a mal accouché et se retrouve dans le bac à sable alors que le Dico termine déjà le collège...
 
WRInaute impliqué
Je pense que le bl pr7 sur la home doit bien aidé à lancer un site
dico du net dispose d'un pr6
livre-google pr 0

Wri as tu lancé ces deux sites en meme temps?
 
WRInaute impliqué
caro a dit:
1) pour google, la sandbox permet d'empêcher les sites spammeurs et les sites poubelles de squater les résultats.
et oui il y a pas très longtemps quand un site était blacklisté et bien le spammeur en ouvrait un autre la semaine suivante et hop il revenait dans les résultats avec un autre nom de domaine, aujourd'hui ca prend du temps :wink:

oui mais bon, ce ne sera toujours que du rapiecage
rien n'empechera un tricheur de tricher quelque soit les filtres ou techniques employees
la sandbox me fait beaucoup rire si elle fonctionne vraiment comme cela, je lance un site tous les mois et tous les mois un site polluera pendant que son arriere-grand-pere passera a trepa et ainsi de suite

la sandbox c'est la preuve que le systeme a atteint ses limites et que les ingenieurs google sont a bout de souffle
la tricherie c'est dans les genes francais et jamais rien ne l'empechera, pas meme google
quand un tricheur fait un pas en arriere, il fera tout pour faire 2 pas en avant
ca nous promet encore de belles discussions mais de grace, que les pleureuses arretent un peu ca devient pathetique
 
Olivier Duffez (admin)
Membre du personnel
Lentreprenaute, excuse-moi je pensais que j'avais rappelé les dates de création des sites :
dicodunet est sorti mi-juin et dès juillet il avait de bons positionnements
livre-google est sorti mi-septembre et les positionnements ne sont pas à la hauteur de l'optimisation du site et de ses nb BL

Je relance l'appel à témoignages !

Ceux qui pensent être victimes de sandboxing peuvent-ils indiquer :
- l'URL du site
- la date de mise en ligne du site
- le nb approximatif de BL obtenus
- si les BL viennent tous du meme site
- si les BL ont tous le même texte de lien
- la date d'inscription éventuelle dans DMOZ

et ceux qui pensent en être sorti peuvent-ils indiquer :
- l'URL du site
- la date de mise en ligne du site
- la date de sortie du sandbox
- le nb de BL obtenus dès la sortie du site, et la variation par rapport au moment où le site est sorti du sandbox
- des infos sur les types de BL
- la date d'inscription éventuelle dans DMOZ

Je commence :
Site Dico du Net : www.dicodunet.com
pas de sandbox noté
mis en ligne mi-juin 04
des milliers de BL issus de plusieurs sites différents, dès la sortie du site
dans DMOZ depuis juillet

Site Livre Google : www.livre-google.com
mis en ligne mi-septembre 04
semble encore pénalisé par un sandbox
des centaines (maintenant milliers) de BL issus de plusieurs sites différents, dès la sortie du site
pas encore dans DMOZ

à vous !
 
WRInaute impliqué
WRI je pense qu'il faudrait vraiment compléter cette étude avec un indice de positionnement.

c'est à dire :
- les sites qui sont sortis de la sandbox ont obtenu quelle position ?
- la requete est elle concurrentielle ? (nb résultats dans base)

quand tu parles du "dicodunet" qui est bien sorti, quelles étaient les positions et étaient elles vraiment concurrentielles ?
 
WRInaute impliqué
oups j'ai oublié de donner mes infos :

1er site
- date de mise en ligne : janvier
- BL au départ : 4 gros de sites externes différents avec textes différents
- dmoz : accepté de suite
- date sorti de la sandbox : mai
- BL en sortie : 7 gros externes
- position dans résultats : 6è sur +500 000 pages

2e site :
- date de mise en ligne : juin
- BL au départ : 10 petits BL de sites différents
- dmoz : accepté de suite
- date sorti de la sandbox : pas encore
- position dans résultats : requete hyper concurrentielle à 1 mot

voilà :wink:
 
Olivier Duffez (admin)
Membre du personnel
j'ai déjà dit ce que je pensais de cette notion de "requête concurrentielle"... je trouve que c'est pas évident à définir, mais je peux me tromper.

"gmail" par exemple je trouve ça un peu concurrentiel et le dico est pas trop mal placé. sinon c'est des dizaines de mots comme webalizer (1.2 million de résultats) par exemple

je laisse la parole aux autres maintenant !
 
WRInaute impliqué
l'URL du site : http://www.lentreprenaute.com
- la date de mise en ligne du site : debut juin 2004
- pr du site: site avec pr5 en home et pr4 pages interieurs
- indexation: toutes les pages sont indexés regulierement
- la date de sortie du sandbox : toujours en cours
- le nb de BL obtenus dès la sortie du site : plus de 300
- des infos sur les types de BL : en provenance de 2 sites principalement
avec deux a trois series de mots cles sur des page à pr 4 principalement.
- la requete concurrentielle : elevé
- la date d'inscription éventuelle dans DMOZ : site inscrit depuis au moins 2 a 3 mois voire plus
- sortie sur mots clés optimisés: plusieurs centaines de resultats et neant.

Voila pour mon site, j'ai pris la liberté de rajouter quelques lignes, utiles ou pas passons.
 
WRInaute impliqué
alors les pipenets* quand il s'agit d'etre concret?

* pipenet(te) : est tiré du nom commun pipelet (te), patronyme d'un concierge dans les mystere de Paris, d'Eugène Sue.
 
WRInaute discret
en réponse à milkiway

Théorie:
Google a placé un filtre dans son algorithme de recherche, qui retient les nouveaux sites pendants trois ou quatre mois, cette période suit habituellement la période de répits initialement accordés aux nouveaux sites.

Le prétendu effet de Sandbox place de nouveaux sites Web dans un bref moratoire, où ils ne se positionneront pas bien, ou carrément pas du tout, dans le SERPs.
 
WRInaute occasionnel
Concernant mon site que je soupconne être dans la Sandbox :
Url : http://www.objectif-suede.com
Date de mise en ligne : Juin 2004
PR du site : 5 avec plusieurs pages à PR4
Indexation : tous les jours pour la page d'accueil, environ tous les 12-13 jours pour le reste des pages.
Nb de BL : à ce jour plus de 400, environ 200-300 après la mise en route du site provenant de sites différents.
Type de BL : un peu de tout, liens texte différents, images, ...
Dmoz : incrit depuis sa mise en ligne
Requètes concurentielles : certaines le sont, mais peu
Et toujours dans la sandbox

Là ou ça devient intéressant, c'est que ce n'est pas un nouveau site, mais un changement d'url associé (anciennement sur Free) à un passage de l'html en php. L'architecture du site est restée pratiquement identique. Donc je peux clairement mettre en évidence un effet sandbox car je peux comparer le positionnement avant et après. J'avais fais une redirection 301 sur la page d'accueil.

Mon ancien site était très bien positionné sur plusieurs mots-clés, notamment "Suède". J'apparaissais dans les premières positions alors que maintenant je n'apparais plus dans les résultats. Pourtant, le référencement est à priori meilleur.
Autre exemple de requète pas du tout concurentielle (sur Google en français) : "Kiruna" (une ville suédoise). Sur l'ancien site, j'étais positionné premier alors que j'arrive maintenant en 6ème page.
Par contre, sur une requète légèrement concurentielle : "Scandinavie", je suis bien postionné.

J'espère que cet exemple pourra vous aider dans vos analyse. En attendant d'en sortir bientôt je l'espère...

Arnaud
 
WRInaute discret
J'ai également fait une redirection d'un domaine à un autre, et le site est également en sandbox depuis 3 mois maintenant.
 
WRInaute impliqué
@WebrankInfo : Une requête concurencielle est très simple à trouver :

- Ils savent le nombre de requêtes tapées en fonction d'un ou plusieurs mots clefs
- Ils ont Adwords qui leur permet également de savoir sur quels mots clefs se placent les entreprises ... Et surtout combien ils sont prêt à payer pour être affiché dans les résultats sponsorisés de cette requête ;)
 
WRInaute discret
- l'URL du site http://www.landes-immobilier.com
- la date de mise en ligne du site : début septembre
- le nb approximatif de BL obtenus : une dizaine
- si les BL viennent tous du meme site : non
- si les BL ont tous le même texte de lien : non
- la date d'inscription éventuelle dans DMOZ : pas encore inscrit
- la requete concurrentielle : immobilier
- nom de domaine : occasion, passé inconnu
- yahoo : commence à bien sortir sur la recherche "landes immobilier",
Résultats 1er sur environ 112 000 pour landes immobilier(et aussi en lien sponsorisé)
 
WRInaute accro
Pour landes-immo je pense que tu as hérité d'un blacklistage dans google ce qui n'a pas grand chose a voir avec le sandbox
 
Discussions similaires
Haut