Que pensez-vous de ma définition simplifiée du sandbox

WRInaute passionné
Sandbox =

Filtre appliqué exclusivement par google et infligé systématiquements aux nouveaux sites web, après une période de prime jeunesse ou aux anciens sites ayant subit une forte augmentation dans leur partenariat (backlinks).
L'effet visant à déclasser volontairement ces site répondant à une requête spécifique et dont la période probatoire serait proportionnelle au nombre de réponses données (y compris les liens comerciaux adwords) pour la dite requête.
Ceci afin de réduire le spam ou de décourager les webmaster peut scrupuleux.
 
Membre Honoré
La sandbox a aussi été senti par des anciens sites (cf forum)
Sinon c'est plus un filtre pour ne pas avoir de sites suroptimisé / référencés rapidement à une période x d'un temps y.
 
WRInaute passionné
je ne pense pas qu'elle s'applique ,si elle existe en tant que telle, à tous les nouveaux sites

Je pense que si, mais de manière plus ou moins modérée suivant la requête.
Si tu as un site rescent, tu peux verifier ton référencement et contrôler ton positionnement pendant quelques mois, tu constateras peut etre des variations quantifiables.
 
WRInaute passionné
La sandbox a aussi été senti par des anciens sites (cf forum)

Oui, c'est ce que j'ai précisé.

Sinon c'est plus un filtre pour ne pas avoir de sites suroptimisé / référencés rapidement à une période x d'un temps y.

C'est également ce que j'ai voulu traduire par "aux anciens sites ayant subit une forte augmentation dans leur partenariat (backlinks)."
 
WRInaute accro
J'ai un site de 6 mois sandboxé et un site de 12 mois sandboxé. Suroptimisé je pense pas, appliquer des méthodes douteuses, je pense pas, afflue massif de BL, certainement pas ! Dans le premier cas j'ai 60 ou 70 BL externes (une mysère), dans l'autre cas, c'est encore moins.

Sur les deux sites, je suis premier sur MSN, et ça me fait une belle jambe.

Alors ancienneté, suroptimisation, trop de BL... Il y a forcement autre chose.
 
WRInaute accro
Et tu peux enlever à mon avis la notion de webmaster peu srucpuleux puisque la plus part d'entre nous le sont, scrupuleux, et nous sommes quand même sous sandbox.

La sandbox n'est à mon avis qu'une énorme connerie faite par google pour tenter de masquer son incapacité à traiter le nombre de page qu'il a indexé avec un algo foireu.
 
WRInaute accro
>> systématiquements aux nouveaux sites web

non, pas si le referencement se fait en douceur (dans le cas d un site aux pretentions modestes)
 
WRInaute accro
e-kiwi a dit:
non, pas si le referencement se fait en douceur

Personnellement je pense avoir fait une augmentation douce et constante du nombre de backlink depuis la naissance du site, je n'arrive d'ailleurs qu'à un totale de 64. J'ai augmenté ce nombre par inscription sur des annuaires, style, lundi 3 demandes d'inscription, mardi 4, mercredi 0 ... pour ne pas qu'il constate une augmentation systèmatique de 10 en 10 par exemple mais rien n'y a fait.

Pour la définition de oli004 qui a le mérite d'exister on pourrait rajouter aussi : "sert à se moquer du webmaster d'un site qui attend des visiteurs sur le thème de son site en ne lui envoyant que des visiteurs qui en s'y intéressent pas".

Ex : je reçois des visiteurs qui cherchent "achat de BMW X5" alors que je n'en vend pas moi-même et que ce terme n'est cité qu'une fois sur mon site à fin d'illustration.
 
WRInaute passionné
Non mais serieux ... vous vous prenez bien la tete pour rien !
Faites vos BL à votre rythme comme vous voulez, de toute façon le filtre fini par partir (au bout de 6 à 12 mois) mais bon au final vous serez mieux référencé qu'avec vos 64 BL !
Guillaume
Ps : Perso j'y vais comme un bourrin : exemple avec mon vacancesfr.net (+10000 BL sur Yahoo ca fait 1 mois et demi qu'il est sorti)
Je suis dans la sandbox mais au moins, je suis sur MSN et Yahoo (seul la home sur Yahoo) . Et aussi sur Google d'ailleurs.
J'accueille par exemple sur hier 250 vu ... et ca monte de 10 en gros tous les jours ... donc franchement ca augmente ca augmente ... et au final quand le filtre se levera ... bah je serai partout !(trafic *4 par exemple)
J'ai testé cette methode avec paris@ttitude ca a marché nickel.(j'ai commencé en mai 2004 ... filtre levé en fev 2005. Explosion du trafic moteur)

Guillaume
 
WRInaute impliqué
achtungbaby a dit:
Alors ancienneté, suroptimisation, trop de BL... Il y a forcement autre chose.

je suis entièrement d'accord avec achtungbaby, depuis des semaines voire des mois j'analyse ce filtre, et effectivement pour l'instant aucune explication donnée sur les forums francais ou anglophones n'ont fourni de solution valable (il y a toujours des contre exemples).

- nouveaux sites sandboxés > non les anciens aussi peuvent l'être
- suroptimisation > non car sans aucun changement le site ressort un jour
- trop de BL > non des tests ont été fait avec des sites presque sans BL
- accroissement anormal des BL > encore des contre exemples
enfin il y en a des tas et à chaque fois ca ne justifie rien !

aujourd'hui il doit s'agir d'un croisement de filtres, et ces filtres possèdent des degrés de pénalisation.
il nous embête bien ce coup ci google :lol:
 
WRInaute accro
Moi, je suis d´accord avec Guillaume ! ;) Vous vous prenez la tete pour rien: il suffit de bien bosser son contenu et ses liens et un jour, ca explose. Il faut être patient, c est tout..... et c est peutêtre là le plus gros probleme ! Encore plus gros que le sandbox lui meme !! :)

Et en attendant..... vous faites un autre site pour passer le temps ! Ou vous ajoutez du contenu. C est tout bête ! et vous ne regardez pas vos adsense surtout.....(scotch obligatoire pour ceux qui ont installé le modul firefox de visualisation des revenus....).... ca marche à touts les coups..... ;)
 
WRInaute passionné
J'ai un site de 6 mois sandboxé et un site de 12 mois sandboxé. Suroptimisé je pense pas, appliquer des méthodes douteuses, je pense pas, afflue massif de BL, certainement pas ! Dans le premier cas j'ai 60 ou 70 BL externes (une mysère), dans l'autre cas, c'est encore moins.

idem pour moi et c'est ce qui me fait penser que le sandbox serait un phenomene "naturel" et "systématique"

non, pas si le referencement se fait en douceur (dans le cas d un site aux pretentions modestes)

Justement, le fait d'effectuer un référencement en douceur permetrait certes de ne pas s'en rendre compte mais cela ne signifierai pas qu'il ne s'applique pas. Puisque le référencement se ferait sur une plus longue période, l'effet serait atténué, ou dilué dans l'assention progressive du positionnement.

Encore une fois, c'est une question de proportion : beaucoup de BL d'un coup = gros sandbox.

Ps : Perso j'y vais comme un bourrin : exemple avec mon vacancesfr.net (+10000 BL sur Yahoo ca fait 1 mois et demi qu'il est sorti)
Je suis dans la sandbox mais au moins,

J'allais aborder cet aspect. En effet admettant que sandbox soit un filtre naturel et systématique, je pense que la grosse erreur serait de stopper toute optimisation pendant cette phase probatoire !
Je suppose que si google nous impose cette contrainte, c'est peut etre aussi pour permettre d'optimiser nos sites.
Imaginons que je suis en sandbox et noyé dans les résultats sur ma requete. si je ne fais rien en attendant de ressortir du tas de sable, dès que je reprendrait l'optimisation de mon référencement, cela pourrait avoir comme incidence d'engendrer une modification brusque de l'evolution de mon site et par voix de conséquences me replongerai dans le tas de sable.

- nouveaux sites sandboxés > oui
non les anciens aussi peuvent l'être oui eux aussi, d'où le systématique
- suroptimisation > non car sans aucun changement le site ressort un jour
d'ou la phase probatoire systématique et plus ou moins longue
- trop de BL > non des tests ont été fait avec des sites presque sans BL
d'où le systématique
- accroissement anormal des BL > La pertinance des BL doit avoir son importance dans le phénomène
encore des contre exemples

Moi, je suis d´accord avec Guillaume ! Vous vous prenez la tete pour rien:
Je n'assimile pas le fait d'essayer de comprendre comme une prise de tête, désolé. Ceci dit, je te rejoins sur le fait qu'il faut continuer comme si de rien etait!
 
Membre Honoré
amicarte est une association aussi je ne sais pas si tu as chercher cela :lol: et je vois pas trop ton sandbox :|
 
WRInaute passionné
@micarte n'est pas une association, c'est une marque française qui est exploitée commercialement !
Si tu veux parler d'amic@rte 51. Nous avons la courtoisie de laisser continuer à exister car étant d'un domaine associatif bien spécifique, non commercial et non concurent.

et je vois pas trop ton sandbox

Le sandbox de mon site s'applique sur la requete "c@rte de fid*lit* et non sur amic@rte. Toutefois, tu remarqueras qu'a la requete amic@rte je ne suis pas 1er mais 2 ème car c'est une requete très peu concurentielle donc l'effet n'est que modéré ! il te suffit de le vérifier via larecherche suivante mais cette requête "pseudo magique" c'est un autre débat.
 
WRInaute impliqué
achtungbaby a dit:
J'ai un site de 6 mois sandboxé et un site de 12 mois sandboxé. Suroptimisé je pense pas, appliquer des méthodes douteuses, je pense pas, afflue massif de BL, certainement pas ! Dans le premier cas j'ai 60 ou 70 BL externes (une mysère), dans l'autre cas, c'est encore moins.

Sur les deux sites, je suis premier sur MSN, et ça me fait une belle jambe.

Alors ancienneté, suroptimisation, trop de BL... Il y a forcement autre chose.

AchtungBaby,

Tu peux nous communiquer l'URL de tes 2 sites et leur historique sur le forum, ou sinon par MP ?
 
Membre Honoré
oli004 a dit:
Le sandbox de mon site s'applique sur la requete "c@rte de fid*lit* et non sur amicarte. [...] recherche suivante[/url] mais cette requête "pseudo magique" c'est un autre débat.

Amicarte j'avais vu et le petit mot sur amicarte avant m'avait fait bizarre :?
Sinon sandbox possible au vu de cela :|
Pour le débat d'avant j'avais déjà vu un topic encore plus vieux dessus :?
 
WRInaute impliqué
achtungbaby a dit:
Tu regardes on profil. :wink:

Le problème c'est que les 2 sites de ton profil ne correspondent pas trop avec ce que tu as décrit précédemment en terme de backlinks.
Sinon la façon dont est redirigé sur chacun de tes sites vers la page welcome/index.php n'est pas la meilleure façon d'accueillir un robot, mais je pense que depuis le temps que tu traines sur WRI, tu dois déja le savoir.
Je trouve que ton outil de gestion de contenu ou ton CMS n'est pas vraiment top.
La façon dont sont organisés les liens n'est pas très logique.
Je ne vais pas faire ici l'inventaire de tous les points noirs, mais un petit exemple s'impose:
Dans la colonne de gauche, il y a la rubrique annuaire qui lorsque l'on clique dessus ouvre un menu de liens, mais la racine de l'annuaire n'est pas cliquable et donc innaccessible, alors qu'elle existe puisqu'une fois dans l'annuaire, il y a bien un lien "l'annuaire" dans la pathbar (ou Petit Poucet, Fil d'Arianne, Chemin, ect...) qui donne accès à la page annuaire/index.php...c'est pareil pour toutes les autres rubriques qui contiennent des sous rubriques, comme Download ou Dossiers.
Pour Actus, c'est encore plus bizarre puisque qu'il y a 2 sous rubriques (Brèves et Fils d'infos), mais que finallement, contrairement à Download ou Dossiers, une fois qu'on est dedans, on se rend compte qu'on ne peut pas accéder à la page de la rubrique à laquelle elles apparatiennent (Actus)...personnellement, j'aime bien les choses logique, tu devrais t'interesser à l'ontologie:
Dicodunet a dit:
Organisation hiérarchique de la connaissance sur un ensemble d'objets par leur regroupement en sous-catégories suivant leurs caractéristiques essentielles.
http://www.dicodunet.com/definitions/mo ... ologie.htm

Je ne sais pas si cela a un impact direct sur ton référencment, mais il est évident qu'il y a un problème d'arborescence, de structure, sur ts sites et cela se voit sur ton PR qui est assez mal réparti sur les pages de ton site puisqu'on a un PR5 sur la home et des pR0 barre blanche sur des pages N-1, alors que sur d'autres on a des choses plus conventionnelles, comme sur la plupart des pages index de catégories (Annuaire, Recommandation, Fichiers ou Wrappers, etc...) où l'on constate une bonne transmission du PR et je ne crois pas que ce soit dû au format des URLS, mais plutôt à l'arborescence pas terrible qui joue en ta défaveur et aux liens retours (la pathbar) qui eux jouent en ta faveur pour les pages index de catégorie.
Sinon ton site n'est pas du tout optimisé car tes pages ne possèdent aucune structure sémantique que tu devrais mettre en place à l'aide de balises Hx qui sont inexistantes, il n'y a pas ou peu de <p>, etc...

@+
 
WRInaute accro
oli004 a dit:
J'allais aborder cet aspect. En effet admettant que sandbox soit un filtre naturel et systématique, je pense que la grosse erreur serait de stopper toute optimisation pendant cette phase probatoire !
Je suppose que si google nous impose cette contrainte, c'est peut etre aussi pour permettre d'optimiser nos sites.
Imaginons que je suis en sandbox et noyé dans les résultats sur ma requete. si je ne fais rien en attendant de ressortir du tas de sable, dès que je reprendrait l'optimisation de mon référencement, cela pourrait avoir comme incidence d'engendrer une modification brusque de l'evolution de mon site et par voix de conséquences me replongerai dans le tas de sable.
je pencherais plutôt pour une réaction épidermique de google face aux sites de spam massif qui en profitaient jusqu'au blacklistage et qui s'empressaient alors de recommencer avec un nouveau NDD (et qui comble d'ironie bénéficiaient au passage d'une nouvelle prime fraicheur) ... l'époque des NDD jetables est bien révolue ... :wink:

le message est donc maintenant : "votre NDD a de l'ancienneté, prenez en soin, il a de la valeur " ... :wink:

je pense d'ailleurs que (comme j'ai déjà eu plusieurs fois l'occasion de le dire) l'effet SandBox, n'est pas un filtre à proprement parler, mais une partie de la partie visible de l'iceberg qu'est la croisade anti spamindexing que mènent Google et les autres moteurs depuis qq temps ...
 
WRInaute impliqué
Cendrillon a dit:
je pencherais plutôt pour une réaction épidermique de google face aux sites de spam massif qui en profitaient jusqu'au blacklistage et qui s'empressaient alors de recommencer avec un nouveau NDD (et qui comble d'ironie bénéficiaient au passage d'une nouvelle prime fraicheur) ... la fin du temps des NDD jetables ... (cela coïncide d'ailleurs bien avec la croisade anti spamindexing engagée depuis qq temps) ... :wink:

le message est donc maintenant : "votre NDD a de l'ancienneté, prenez en soin, il a de la valeur " ... :wink:

C'est un peu l'interprétation qu'a fait Axandra (l'éditeur du logiciel IBP et Arelis) du récent brevet déposé par Google, dans une de ses dernières newsletter (la 2ème partie d'une analyse du brevet en 5 partie):

Part 2: How your domain name can influence your rankings on Google

The patent specification revealed a lot of information about possible ways Google might use your domain name to determine the ranking of your site.

Google mentions specific types of information relating to how a document is hosted within a computer network that can influence the ranking of a web site. For example, Google tries to determine the legitimacy of a domain name.

According to Google, valuable domains are often paid for several years in advance while doorway or throwaway domains are rarely used for more than a year. To determine the value of a domain, Google records the following information:

* the length of the domain registration (one year <-> several years)
* the address of the web site owner, the admin and the technical contact
* the stability of data and host company
* the number of pages on a web site (web sites must have more than one page)

Google claims that they have a list of known bad contact information, name servers and IP addresses that helps them to find out whether a spammer is running a domain.

In addition, the patent specification claims that Google might check the information of a name server in several ways. For example, good name servers might have a mix of different domain names from different registrars.

Bad name servers might host mainly adult or doorway domains, bulk-domains from a single registrar or domains with many commercial words.
http://www.axandra.com/news/newsletter155.htm (la 2ème partie)
http://www.axandra.com/news/index.htm (la liste de toutes les newsletters d'Axandra).

Le post de WRI où l'on parle du brevet en question:
https://www.webrankinfo.com/forum/t/leffet-sandbox-explique-google-depose-un-brevet.25573/
 
WRInaute accro
turulillo a dit:
Le problème c'est que les 2 sites de ton profil ne correspondent pas trop avec ce que tu as décrit précédemment en terme de backlinks.

Je parle de BL externes, les autres BL sont des BL internes.
Un site a 547 BL mais 62 externes, et l'autre 118 BL mais seulement 17 externes.

turulillo a dit:
Sinon la façon dont est redirigé sur chacun de tes sites vers la page welcome/index.php n'est pas la meilleure façon d'accueillir un robot, mais je pense que depuis le temps que tu traines sur WRI, tu dois déja le savoir.
ça ne pose réellement aucun probleme au niveau référencement, et encore moins au niveau propagation du PR.

turulillo a dit:
Je trouve que ton outil de gestion de contenu ou ton CMS n'est pas vraiment top.
La façon dont sont organisés les liens n'est pas très logique.
Je ne vais pas faire ici l'inventaire de tous les points noirs, mais un petit exemple s'impose:
Dans la colonne de gauche, il y a la rubrique annuaire qui lorsque l'on clique dessus ouvre un menu de liens, mais la racine de l'annuaire n'est pas cliquable et donc innaccessible, alors qu'elle existe puisqu'une fois dans l'annuaire, il y a bien un lien "l'annuaire" dans la pathbar (ou Petit Poucet, Fil d'Arianne, Chemin, ect...) qui donne accès à la page annuaire/index.php...
Je ne cherche pas à indexer un annuaire, mon site n'est pas un annuaire, c'est juste un plus. Sinon le plan permet de remédier à ça.

turulillo a dit:
c'est pareil pour toutes les autres rubriques qui contiennent des sous rubriques, comme Download ou Dossiers.
Erreur, au niveau du menu, tu accèdes aux catégories par le menu horizontales.

turulillo a dit:
Pour Actus, c'est encore plus bizarre puisque qu'il y a 2 sous rubriques (Brèves et Fils d'infos), mais que finallement, contrairement à Download ou Dossiers, une fois qu'on est dedans, on se rend compte qu'on ne peut pas accéder à la page de la rubrique à laquelle elles apparatiennent
(Actus)...personnellement, j'aime bien les choses logique, tu devrais t'interesser à l'ontologie:
Ce sont des pages distinctes qui ne correspondent pas aux dossiers, ensuite pour les brèves, encore une fois, il y a le plan pour ça.

je n'ai aucun soucis de référencement des pages, j'ai 20.000 pages indexées.
 
WRInaute passionné
Part 2: How your domain name can influence your rankings on Google ........
Bad name servers might host mainly adult or doorway domains, bulk-domains from a single registrar or domains with many commercial words.

I agree .... euh... je suis d'accord avec cette theorie qui n'empeche ni ne réfute mon hypothese.

Ceci étant, j'ajoute que le Google suggest beta me conforte dans mon opinion, à savoir que chaque requête tappée par un internaute serait mémorisée et comparée au nombre de réponses proposées donnant ainsi un coeficient de concurence qui serait ensuite intégré dans la durée de la période sandboxale (ohh celle là, faut que je retienne :wink: )
 
WRInaute discret
oli004 a dit:
Sandbox =

Filtre appliqué exclusivement par google et infligé systématiquements aux nouveaux sites web, après une période de prime jeunesse ou aux anciens sites ayant subit une forte augmentation dans leur partenariat (backlinks).
L'effet visant à déclasser volontairement ces site répondant à une requête spécifique et dont la période probatoire serait proportionnelle au nombre de réponses données pour la dite requête.
Ceci afin de réduire le spam ou de décourager les webmaster peut scrupuleux.

En ce qui me concerne je rentre parfaitement dans le cas des anciens sites ayant subi une forte augmentation dans leur partenariat (backlinks).
 
WRInaute accro
oli004 a dit:
chaque requête tappée par un internaute serait mémorisée et comparée au nombre de réponses proposées donnant ainsi un coeficient de concurence qui serait ensuite intégré dans la durée de la période sandboxale (ohh celle là, faut que je retienne :wink: )

Un coefficient de réponse tel quel ne donnerait aucune chance à un nouveau site de sortir de la sandbox un jour.
Mais d'accord avec toi : les requetes sont mémorisées, (et les votes dans la google bar sont sûrement aussi comptabilisés)
j'ai l'idée d'un "sandbox partiel" pour les pages non fréquentées, vides et statiques (avantage pour le php : annuaires, blog...
Un paramètre rachat du nom du site (je l'ai vécu très net +200% google) si le nom est racheté quelqu'un s'occupe du domaine. Combien de site disparaissent en quelques mois ou même semaines...
Et surtout une courbe croissante de liens (backlinks externes) cela veut dire que le site est touours aussi intéressant ( pour l'extérieur)
une courbe croissante des contenus (le site est mis à jour)
D'où deux idées "on ne sort pas" de la sandbox on a toujours un pied dedans...
Et peut être (je pèse mes mots) une raison pour laquelle les gros sites ont été plus touchés que les petits par l'effet Bourbon, ils ne font pas la recherche de backlinks que le petits sont obligés de faire.
En lisant wri ces derniers jours beaucoup ont été sidérés de voir des mots clés sur lesquels ils étaient très bien positionnés depuis longtemps, leur echapper, et la fréquentation également... sans travail récent de backlinks.
Et comme par hasard en ce moment mise à jour des backlinks qui arrange les petits sites... ce n'est sûrement pas un hasard
 
WRInaute passionné
Un coefficient de réponse tel quel ne donnerait aucune chance à un nouveau site de sortir de la sandbox un jour.

Si et heureusement pour les nouveaux sites, qui rappelons-le au passage beneficient pour la plupart d'une prime jeunesse.
Le coef de concurence dont je parle determinerai une "durée" de sandbox sur la requête, donc au bout de cette durée le filtre disparraîtrait (j'utilise tjs le conditionnel).

j'ai l'idée d'un "sandbox partiel" pour les pages non fréquentées, vides et statiques...

Je doute car un petit site statique peut etre tout aussi objectif qu'un gros site dynamique plus généraliste. je prends pour exemple des PME ayant un simple site vitrine d'une dizaine de pages sur un produit spécifique.

D'où deux idées "on ne sort pas" de la sandbox on a toujours un pied dedans...

je te rejoins un peu dans ce sens, même si je pense que l'on doit sortir du sable un jour, mais que le risque de replonger dedans est toujours vrai au moindre écart de "conduite" (backlink, procédés malhonête, etc.)

Et peut être (je pèse mes mots) une raison pour laquelle les gros sites ont été plus touchés que les petits par l'effet Bourbon, ils ne font pas la recherche de backlinks que le petits sont obligés de faire.
En lisant wri ces derniers jours beaucoup ont été sidérés de voir des mots clés sur lesquels ils étaient très bien positionnés depuis longtemps, leur echapper, et la fréquentation également... sans travail récent de backlinks.
Et comme par hasard en ce moment mise à jour des backlinks qui arrange les petits sites... ce n'est sûrement pas un hasard

je mettrai toutefois un bemol sur "bourbon" car bien que n'ayant pas été touché (ou alors je ne m'en suis pas rendu compte) le changement est tellement brutal sur de nombreux classements, que je me demande vraiment si c'est un phenome reellement "voulu" par google. C'est pourquoi je préfère avoir un peu de recul pour voir si il y a un lien entre sandbox et bourbon.
 
WRInaute passionné
je mettrai toutefois un bemol sur "bourbon" car bien que n'ayant pas été touché (ou alors je ne m'en suis pas rendu compte)

Rectificatif : J'ai egalement subbit un declassement et certains annuaires me sont passé devant sur une de mes requêtes.
 
WRInaute accro
Idées (ou questions) pour ta théorie :
1 la sandbox en tant que "nouveau" filtre ?
d'où la possibilité d'y retourner partiellement, et d'avoir des conséquences pour le positionnement (pas de croissances des backlinks, pages non demandées... ---> pages en sandbox
d'où perte de places sur les mots clés "habituels"
2 Nouveau filtre : les backlinks internes deviennent de moindre importance si les pages ne sont pas en accord sur les sujets (ou autres raisons de l'algorythme google)

Ce qui est aussi très surprenant c'est la durée pour la mise à jour des datas center, le silence radio de Google sur l'événement,
et les conséquences financières qui s'annoncent lourdes :
on ne tape pas sur la poule aux oeufs d'or - les gros vont se fâcher.
 
WRInaute passionné
1 la sandbox en tant que "nouveau" filtre ?

Nouveau pas tant que ça. Il est je pense appliqué déja depuis plusieurs mois !

d'où la possibilité d'y retourner partiellement, et d'avoir des conséquences pour le positionnement

Oui, d'accord avec toi.

(pas de croissances des backlinks,...

Je ne pense pas que de stopper la croissance des BL permette de sortir du sable et il serait encore plus idiot de rester a ne rien faire. Ceci dit, tout est dans la mesure et malheureusement, seul google la maitrise !

pages non demandées...

:?: je ne vois pas ce que tu veux dire, peux-tu preciser :oops:

---> pages en sandbox
d'où perte de places sur les mots clés "habituels"

C'est triste mais c'est le cas :(

2 Nouveau filtre : les backlinks internes deviennent de moindre importance si les pages ne sont pas en accord sur les sujets ...

je présume que ça a toujours été le cas, avant même que l'on evoque le sandbox. En effet google est capable d'analyser les BL depuis belle lurette, qu'ils soient internes ou externes.

(ou autres raisons de l'algorythme google)

mmh :roll: C'est bien ça qui nous intrigue ! ahh si seulement l'algo de google etait rendu publique ... :wink:
 
WRInaute accro
Quand je dis <la sandbox en tant que "nouveau" filtre ?>
On connait la sandbox depuis quelques mois pour les nouveaux sites . Depuis la semaine dernière + les anciens semblent eux aussi envoyés en sandbox.
Idée :
Jusqu'à présent le paramètre âge du site était très important, depuis ces 10 jours on dirait qu'il l'est moins.
Et surtout phénomène unique, on balance en sandbox (on rend moins visible) des sites plantés depuis longtemps et en position et en mots clés.
Donc j'en déduit que les paramètres des comptes de backlinks ont changés (c'est pour ça que c'est plus long ?) il recalcule des backlinks internes anciennes (genres des vieilles pages de forums ou du genres) et si ces backlinks
ne sont pas en accord avec le sujet du site --> (exemple) 0
en accord -->> ( exemple) +1
pages anciennes = o
Les pages non sollicitées ce sont des vieilles pages, jamais lues, ne répondant jamais à aucune requete du site (sans cache).
Jusqu'à présent c'est typique d'une sandbox de nouveau site :
il crawle tout, et quelques semaines plus tard, il ne s'intéresse qu'à certaines pages, donc il ne vient que vérifier de temps en temps, si le site est dynamique, si les pages se remplissent, si on les regarde....
Le nouveau c'est que ça concerne maintenant aussi les gros malgré un gros pagerank. En exemple tape le mots clés "hardware" : bonjour pour s'y positionner. Dans l'ordre ça donne pr7 pr7 pr6 pr5 pr7 pr7
Ca semble cahotique pour nous, mais le petit pr5 perdu là au milieu a peut etre bossé un peu plus que le autres...
 
WRInaute passionné
pages anciennes = o
Les pages non sollicitées ce sont des vieilles pages, jamais lues, ne répondant jamais à aucune requete du site (sans cache).
Pas clair...
Des vieilles pages, ca se voit, mais le reste... (requetes de quel site? Les robots ne voient rien de plus que l'internaute, donc pas d'histoires de cache PHP - et les pages HTML alors?)
 
WRInaute accro
Niceuneuf.
regardes un forum comme wri, les vieux post de l'année derniere ils deviennent quoi ? Sont-ils toujours lus ? en tous cas moins les nouveaux. Pour établir le pagerank du site google se base sur pleins de parametres mais ces pages elles sont out maintenant donc une des questions "google va t il considérer ces vieilles pages comme ex backlink (mise en sandbox de pages) puisque non regardées.
Pour php ou html : mon site en php est plus touché par la sandbox et par le bourbon, coincidence ?
(le site du profil en html, gagne en positions et en fréquentations ainsi qu'en backlinks avec bourbon mais n'est plus en sandbox)
 
WRInaute occasionnel
En lisant le post de bugs je suis allé vérifier un vieux site que j'avais créé en 98/99 et je viens de constater que 6 pages qui étaient placées dans les 5 ères places sur des requètes donnant entre 300000 et 500000 réponses ont disparues (je n'ai aps vérifié le reste du site). A noter que ces 6 pages n'avaient que des backlinks provenant de ce même site et donc aucun backlink externe.

Pour donner un peu plus d'infos, le site est très généraliste, je le mettais peu à jour à part quelques pages de temps en temps. Néanmoins les 6 pages qui ont disparu avaient été mises à jour plusieurs fois ces 10 derniers mois (mais étaient tout à fait correctes : très faible densité, bcp de contenu, rien de "limite"). J'étais d'ailleurs surpris de les trouver aussi bien placées, c'est clairement l'effet d'ancienneté qui jouait (ancienneté du site en lui même ?, ancienneté des backlinks internes ?).

On peut donc dire constater que il ne suffit pas qu'une page n'ait pas été mise à jour depuis longtemps pour qu'elle disparaisse. En revanche ca peut appuyer l'hypothèse d'une moindre importance des liens internes ou encore de l'ancienneté des sites.

J'avais aussi pensé à un renforcement de l'effet sandbox dans le temps, et qui toucherait donc plus fortement les sites agés qu'avant l'update mais aparemment c'est aps le cas puisque mes pages n'étaient pratiquement pas optimisées.
 
WRInaute passionné
Thierry, je vois mieux.
Ce qui compte, ce n'est pas la fréquentation des pages mais les liens qui y vont (le PR si on veut). Effectivement, les sujets qui passent en 2e page de forum voire en plein milieu ont de moins bons liens (mais pas tellement, le menu 1 2 ...dernier en maintient - les fils en derniere page ne sont pas les + mal lotis) et donc leurs liens sortants ont moins de valeur. Si tous tes liens sont sur des sujets (hors post-it) de ce forum, effectivement ca va baisser (mais presque tout de suite ici).
Plus globalement, meme sans que les pages qui lui font des liens "rétrogradent", un site qui ne gagne pas de liens perd plutot du PR (la proba de le trouver au cours d'un surf aléatoire baisse).
Faut voir aussi l'effet de criteres d'ancienneté de la page/du site dans l'algo.
Pour les pages internes, c'est la situation de la plupart des pages Web (pages internes avec des liens venant tous du meme site), surtout dans de gros sites, d'autant que les liens d'annuaires et une bonne part des échanges de liens ciblent la page d'accueil et aucune autre (ou bien peu).
 
WRInaute passionné
Ce qui compte, ce n'est pas la fréquentation des pages mais les liens qui y vont (le PR si on veut). Effectivement, les sujets qui passent en 2e page de forum voire en plein milieu ont de moins bons liens

Pas forcément. Cela dépendand en grande partie de la structure des pages, ainsi que des sujets traités. N'oublions pas qu'une page très pertinente d'un forum peut très bien se trouvée linkée par de nombreux site et lui attribuer ainsi un meilleur PR que les premières pages.

Faut voir aussi l'effet de criteres d'ancienneté de la page/du site dans l'algo

Quelle date serait prise en compte par google ? celle de la mise en ligne d'un NDD ou celle du premier crawl ?

Rappelons qu'un site peut rester des mois avant de voir sont premier crawl.
 
Discussions similaires
Haut