Théorie de la "Sandbox impossible"

Bouledogue

WRInaute passionné
Théorie de la sandbox impossible.

J'ai étudié un phénomène sur GG depuis 1 ans (il est probable que c'est même antérieur à celà, mais je ne l'avais pas décelé avant.)

GG semble avoir plusieurs type de sandbox :

- Celle des nouveaux sites (pour moi sandbox classique) (que vous connaissez)
- Celle des sites qui trichent ( Pour moi sanbox Négative) que vous connaissez également)
- Celle des sites avant site link ( sandbox positive ) celle ci est courte, mais vous provoque une dance sur les DC pendant 15jours / 1 mois avec pertes des visiteurs pour remonté en pleine puissance avec un jolie site link
- Celle des sites ayant un nombre de nouvelles pages jour trop grand (Pour moi Sandbox Impossible) c'est celle que je pense certains ont.
Elle se traduit par une chute brutale dans les DC et ne vous permet pas de remonter avant le changement complet de vos scripts.

Sanbox Impossible :

Les causes :
Un nombre trop grand de pages aux contenu peu fournis qui se générent à partir d'affiliation, de recherche affiché de marque blanche ou récupération de flux RSS

Qui est touché :
Sites jeunes ou vieux, n'ayant pas grâce à leur trafic une explication logique de l'augmentation de leurs nouvelles pages.
Je m'explique votre site ne fait pas plus de 100 visiteurs/jour et généré pour les bots 300/400 pages /jour il est donc impossible que vous ou vos visiteurs augmentent le nombre de vos pages aussi rapidement sur un lapse de temps linéaire.

Duré : sur 1an sans modifs : pas de sortie

Comment en sortir :
Bloquer son nombre de pages générées à la volée et stabiliser son site, changer la disposition de son site, de façon significative pour que les bots recommence à l'indexer normalement.

;)
 

bozoleclown

WRInaute impliqué
Intéressant.

il est vrai qu'un site d'1M de pages ne peut pas sortir comme ça en 1 jour.
Il serait donc pertinent pour google de surveiller les progressions fulgurantes.
 

bee_human

WRInaute passionné
bozoleclown a dit:
Intéressant.

il est vrai qu'un site d'1M de pages ne peut pas sortir comme ça en 1 jour.
Il serait donc pertinent pour google de surveiller les progressions fulgurantes.

Et pourquoi pas. Un fournisseur avec beaucoup de références qui du jour au lendemain (après préparation) bascule son catalogue sur internet.
 

amri-referencement

WRInaute occasionnel
bozoleclown a dit:
Intéressant.

il est vrai qu'un site d'1M de pages ne peut pas sortir comme ça en 1 jour.
Il serait donc pertinent pour google de surveiller les progressions fulgurantes.

Je suis tout à fait d'accord avec toi. Il faut de la patience.

Fanny :wink:
 

amri-referencement

WRInaute occasionnel
Re: Théorie de la Sandbox impossible

itraque a dit:
Théorie de la sandbox impossible.

Comment en sortir :
Bloquer son nombre de pages générées à la volée et stabiliser son site, changer la disposition de son site, de façon significative pour que les bots recommence à l'indexer normalement.

;)

Faut pas pousser quant même!

Bloquer le nombre de pages générées à la volée voudrait dire, que pendant ce temps là, on ne vend plus de produits sur son e-commerce.

Ne plus écouler des nouveaux produits (svt en stock), sous prétexte qu'il faut contrer ce phénomène.

Si ton netlinking est optimisé, contrôler, et suivi, "la sandbox", tu finis bien par en sortir un jour ou l'autre.

Je sais que c'est pas l'idéal, mais au point de mettre en péril sa stratégie commerciale, c'est pas donné à tout le monde.

Bonne soirée

A + sur WRI

Fanny AMRI
 

Bouledogue

WRInaute passionné
Re: Théorie de la Sandbox impossible

amri-referencement a dit:
itraque a dit:
Théorie de la sandbox impossible.

Comment en sortir :
Bloquer son nombre de pages générées à la volée et stabiliser son site, changer la disposition de son site, de façon significative pour que les bots recommence à l'indexer normalement.

;)

Faut pas pousser quant même!

Bloquer le nombre de pages générées à la volée voudrait dire, que pendant ce temps là, on ne vend plus de produits sur son e-commerce.

Ne plus écouler des nouveaux produits (svt en stock), sous prétexte qu'il faut contrer ce phénomène.

Si ton netlinking est optimisé, contrôler, et suivi, "la sandbox", tu finis bien par en sortir un jour ou l'autre.

Je sais que c'est pas l'idéal, mais au point de mettre en péril sa stratégie commerciale, c'est pas donné à tout le monde.

Bonne soirée

A + sur WRI

Fanny AMRI

Loll !!

toi, tu crois encore au pére noel ou au grand méchant loup

avant de dire n'importe quoi et répondre dans le sens du courant, des réponses du posts.

tu as vu ou un site e-commerce qui sort avec 3 millions de pages ?

même Cdiscount ou rue du commerces ne sont sortie qu'avec 200/300 articles.

Je parle de proportion, et tu parle de généralités absurdes.
 

webmaster39

WRInaute impliqué
en tout cas beaucoup de sites avec fiches produits sont touchés par le déclassement, je pense que la théorie est intéressante.
 

Olivier Duval

WRInaute occasionnel
Re: Théorie de la Sandbox impossible

itraque a dit:
- Celle des nouveaux sites (pour moi sandbox classique) (que vous connaissez)
- Celle des sites qui trichent ( Pour moi sanbox Négative) que vous connaissez également)
- Celle des sites avant site link ( sandbox positive ) celle ci est courte, mais vous provoque une dance sur les DC pendant 15jours / 1 mois avec pertes des visiteurs pour remonté en pleine puissance avec un jolie site link
- Celle des sites ayant un nombre de nouvelles pages jour trop grand (Pour moi Sandbox Impossible) c'est celle que je pense certains ont.
Elle se traduit par une chute brutale dans les DC et ne vous permet pas de remonter avant le changement complet de vos scripts.

Bof, bof pas convaincu
 

Darkcity

WRInaute passionné
Sandbox siginie bac à sable, donc faut arrêter de ressortir ce mot à toutes les sauces...

l'ensemble de mes sites n'ont jamais été sandboxés, anciens comme récents...

plutôt que d'accuser Google et de mettre une étiquette "Sandbox" sur tout, faut plutôt se remettre en question...

si votre site descend de 100 places dans le classement, bah l'hébergeur était indisponible au moment où Google Bot est passé sur vos pages...

si votre site fait du yo-yo, c'est que vos concurrents essaient d'avoir votre place ou que Google change son algo...

si il disparait, c'est que GG fait une MAJ de ses datacenters et que votre site a été oublié en chemin...

Je suis quand même très dubitatif sur ces théories de "Sandbox" et autres "Punitions 950".
 

Bouledogue

WRInaute passionné
Re: Théorie de la Sandbox impossible

Olivier Duval a dit:
Bof, bof pas convaincu

Étayes, etayez bon sang !!!!!

c'est une théorie, quelques choses que j'ai vérifié seulment sur 12 sites, vous devez pouvoir faire mieux que des réponses toutes faites.

Vous avez des sites, répondez en donnant vos convictions, je vous donnerait les miennes.

Sur tout mes test, il ressort cette corrélation.

pour info, ce quii ma fait débuter mes test c'est cette infos que j'avais entendu :
ebay avec 700000 visiteurs /jour sur europe génére que 30000/40000 pages/jours.
donc comment un site avec 100, 200, 1000 etc.. peux générer 400, 4000 pages par jours ?
 

Bouledogue

WRInaute passionné
Darkcity a dit:
Sandbox siginie bac à sable, donc faut arrêter de ressortir ce mot à toutes les sauces...

l'ensemble de mes sites n'ont jamais été sandboxés, anciens comme récents...

plutôt que d'accuser Google et de mettre une étiquette "Sandbox" sur tout, faut plutôt se remettre en question...

si votre site descend de 100 places dans le classement, bah l'hébergeur était indisponible au moment où Google Bot est passé sur vos pages...

si votre site fait du yo-yo, c'est que vos concurrents essaient d'avoir votre place ou que Google change son algo...

si il disparait, c'est que GG fait une MAJ de ses datacenters et que votre site a été oublié en chemin...

Je suis quand même très dubitatif sur ces théories de "Sandbox" et autres "Punitions 950".

Oui, les astronomes disaient la même choses en parlant de Pluton.

ce n'est pas parce que tu ne le vois pas, qu'il n'existe pas
 

Bouledogue

WRInaute passionné
bee_human a dit:
bozoleclown a dit:
Intéressant.

il est vrai qu'un site d'1M de pages ne peut pas sortir comme ça en 1 jour.
Il serait donc pertinent pour google de surveiller les progressions fulgurantes.

Et pourquoi pas. Un fournisseur avec beaucoup de références qui du jour au lendemain (après préparation) bascule son catalogue sur internet.

Oui, d'un coup, pas tous les jours pendant 10 mois d'affilé

j'ai testé pas d'incidence sur une mise à jour de quelques milliers de pages en une fois
 

HawkEye

WRInaute accro
bee_human a dit:
Et pourquoi pas. Un fournisseur avec beaucoup de références qui du jour au lendemain (après préparation) bascule son catalogue sur internet.

Tout à fait d'accord.

J'ai deux sites en gestation qui devraient pondre des dizaines de milliers de pages on "day one", de manière totalement légitime.
 

Bouledogue

WRInaute passionné
HawkEye a dit:
bee_human a dit:
Et pourquoi pas. Un fournisseur avec beaucoup de références qui du jour au lendemain (après préparation) bascule son catalogue sur internet.

Tout à fait d'accord.

J'ai deux sites en gestation qui devraient pondre des dizaines de milliers de pages on "day one", de manière totalement légitime.

en "one day"

itraque a dit:
Oui, d'un coup, pas tous les jours pendant 10 mois d'affilé

j'ai testé pas d'incidence sur une mise à jour de quelques milliers de pages en une fois
 

Bouledogue

WRInaute passionné
marion17 a dit:
si on lance le site avec 10 000 pages et apres plus rien ?

Pas de soucis vis à vis de ce que j'appelle la "sandbox impossible"

Ce n'est pas un nombre de pages énorme qui pose soucis, mais une génération de pages énorme improportionnel aux nombres de visiteurs.


si vous prenez Wri et que l'ont admette qu'il face 35000 visiteurs/jours, il est probable qu'il face 400 à 500 nouvelles pages /jour normal donc, il pourrait tout aussi bien en faire 4000 / 5000 / jour cela resterait dans des proportion acceptable.

si vous prenez un site genre réduction etc.. qui génére 1000/2000 visiteurs jours et qu'il génére 3000/4000 nouvelles pages / jour, il y a fort à parier qu'il plonge à un moment ou un autre en "Sanbox impossible"
 

Audiofeeline

WRInaute accro
Bon ce que j'ai compris de la sandbox c'est en gros une période de test où le positionnement du site est vulnérable...

Le cas le plus souvent répertorié est celui où le webmaster fait un référencement bourrin en insistant sur un seul mot clé vers sa home.
On peu facilement limiter ses effets en limitant le référencement au lancement du site et en variant les mots clés...

Par contre pour ce qui est de l'arrivée d'un nombre important de nouvelles pages je ne suis pas sur que ce soit la sandbox, peut être autre chose dans l'algorithme mais je suis persuadé que ça n'est pas pénalisant (Si ces pages sont OK bien sur)...
D'ailleurs j'ai eu le cas avec un déménagement de site, celui-ci avait plein de page donc a "l'ouverture" sur le nouveau nom de domaine et pas de sandbox, un légé recule dans les positionnement mais tout est revenu en place mais ça vient surement de la redirection 301...

Quelqu'un a déjà eu un cas où l'afflux massif de nouvelles pages a été négatif?

Je crois qu'un site trusté ne peut pas retourner en sandbox mais il peut très bien être déclassé ou black listé...
Retour en sandbox ok mais ça ne donne pas le droit de faire n'importe quoi ! ;)
 

Bouledogue

WRInaute passionné
Audiofeeline a dit:
Bon ce que j'ai compris de la sandbox c'est en gros une période de test où le positionnement du site est vulnérable...

Le cas le ........................
......................................................

listé...
Retour en sandbox ok mais ça ne donne pas le droit de faire n'importe quoi ! ;)

Là, je suis d'accord avec toi mais je ne parle pas des sandbox classique ou punition nananein
Je parle d'une forme de températion que j'appelle à titre personnel "Sandbox impossible" et qui n'a rien à voir avec la mise en ligne d'un site aillant 100.000.000 de pages.
 

Audiofeeline

WRInaute accro
Ah ok... En gros tu veux dire que la sandbox ne s'applique qu'aux nouveaux sites?
Ensuite c'est autre chose qui rentre en compte?
C'est comme ça que j'ai toujours compris la sandbox.
 

HawkEye

WRInaute accro
Audiofeeline a dit:
Ah ok... En gros tu veux dire que la sandbox ne s'applique qu'aux nouveaux sites?
Ensuite c'est autre chose qui rentre en compte?
C'est comme ça que j'ai toujours compris la sandbox.

Pas moi ;)

Le filtre SandBox est appliqué indépendamment de l'âge du site.

Simplement, si on voit le filtre SandBox comme un "frein automatique" déclenché par la dynamique du site, et les changements dans cette dynamique, comme:

- augmentation massive et spontanée du nombre de pages disponibles
- changements brutaux dans le positionnement, dans l'optimisation, dans le nombre d'IBL
- etc...

...on peut alors concevoir que si deux sites d'âge ou de positionnement totalement différents, qui pratiqueraient précisément la même optimisation (exemple: +10.000 IBL en 1 semaine), subissent exactement le même filtrage (frein); mais que les effets n'en soient pas identiques:

- le "jeune site" a à son actif 10.000 IBL comptabilisés; lui en ajouter 10.000 en une semaine correspond à un "boost" de 100%

- le "vieux site" a à son actif 100.000 IBL comptabilisés; lui en ajouter 10.000 en une semaine correspond à un "boost" de 10%

--> les variations relatives sur le "vieux site" sont moins importantes que sur le "jeune site".
--> le "vieux site" subira moins d'effets filtrants.


Moi c'est comme ça que je vois "la SandBox".
Et c'est d'ailleurs à mon avis pour cette raison qu'on ressent une "prime de fraîcheur": quand un site est très très jeune, les écarts "avant-après" sont tellement importants qu'ils ne sont plus significatifs:

passer de 0 IBL à 10 IBL = "boost infini" :roll:

--> pour contrer les effets trop "erratiques", une "immunité à la SandBox" ("prime de fraîcheur") couvre le "tout jeune site".

C'est comme quand on démarre un gros moteur à pistons sur une vielle machine (bagnoles, avions,...): les aiguilles sont en butées et s'excitent pendant les premières secondes du démarrage: ce n'est pas à ce moment là qu'on va essayer de lire leur valeur.

Sidenote: ce qui est décrit ci-dessus est une des raisons pour lesquelles je conçoit très volontiers d'acheter du référencement automatique pour un site qui est bien installé, alors que je considère ça comme du suicide pour un site qui démarre.
 

Audiofeeline

WRInaute accro
HawkEye a dit:
- le "jeune site" a à son actif 10.000 IBL comptabilisés; lui en ajouter 10.000 en une semaine correspond à un "boost" de 100%

- le "vieux site" a à son actif 100.000 IBL comptabilisés; lui en ajouter 10.000 en une semaine correspond à un "boost" de 10%

--> les variations relatives sur le "vieux site" sont moins importantes que sur le "jeune site".
--> le "vieux site" subira moins d'effets filtrants.
Principe du PageRank / TrustRank ?
Un site bien établit aura peu de variation car c'est un site de confiance, Google doit être un peu plus méfiant des jeunes pousses ce qui est compréhensible...
 

bozoleclown

WRInaute impliqué
Doit bien y avoir des personnes qui ont déjà mis en ligne des catalogues de produits de 2 Millions d'articles issues de l'affiliation, pour témoigner.

Ces mêmes personnes pourront dire s'ils ont subi un déclassement c'est dernier temps.

Enfin que je pense qu'avec ce genre de discussions, on ne fait finalement qu'éfleurer la complexité du métier de Google. A savoir faire du search mais faire du search pertinant...
 

Bouledogue

WRInaute passionné
bozoleclown a dit:
Doit bien y avoir des personnes qui ont déjà mis en ligne des catalogues de produits de 2 Millions d'articles issues de l'affiliation, pour témoigner.

Ces mêmes personnes pourront dire s'ils ont subi un déclassement c'est dernier temps.

Enfin que je pense qu'avec ce genre de discussions, on ne fait finalement qu'éfleurer la complexité du métier de Google. A savoir faire du search mais faire du search pertinant...

Loll , il y en a, il n'y a qu'à voir mes MP et mes mails suite à ce post .. ;)
 

Audiofeeline

WRInaute accro
Je pense que ce qui compte ça n'est pas tant la quantité de contenu mais le contenu lui même. Google le répète assez comme ça...
On peut très bien se poser la question est-ce qu'un site avec des milliers de pages de marque blanche est pertinent?
Si vous faites un site avec 1 millions de pages pourquoi serait-il pénalisé si le contenu est bon? Il n'y a aucune raison...

Je pense qu'il faut penser comme ça :
Comment un éditeur humain classerait-il un site?
L'algorithme tente de se rapprocher de ça. Il faut voir le Google Bot comme une intelligence artificielle je pense...
Pour être pertinent, le coeur du moteur doit être capable de penser comme un Internaute. Du bon sens voilà tout...

Edit :
itraque a dit:
Loll , il y en a, il n'y a qu'à voir mes MP et mes mails suite à ce post .. ;)
Ca serait plus constructif d'en parler ici, non? :)
 

HawkEye

WRInaute accro
Audiofeeline a dit:
Si vous faites un site avec 1 millions de pages pourquoi serait-il pénalisé si le contenu est bon? Il n'y a aucune raison...

Je ne parlais pas de quantité, mais bien de vitesse, et surtout d'accélération.
 

Audiofeeline

WRInaute accro
Bah si y'a beaucoup de pages c'est normal que le bot va plus vite. :)
D'ailleurs c'est configurable dans Webmaster Tools il me semble...
 

Bouledogue

WRInaute passionné
Audiofeeline a dit:
Ah ok... En gros tu veux dire que la sandbox ne s'applique qu'aux nouveaux sites?
Ensuite c'est autre chose qui rentre en compte?
C'est comme ça que j'ai toujours compris la sandbox.

J'avais sauté ce post :oops:

on pourrais le résumer comme çà pour ce que tu dis.

Mais moi je parle d'un fait que dont j'ai inventé le nom ("Sandbox Impossible" comme j'aurai pu l'appeller trucmuche ) qui est le nom de la maladie que beaucoup de sites marques blanche, ou code reduction semblent avoir ici
Mes tests, ne se sont basé que sur ce genre de sites, il faut voir dans les autres cas d'autre simptômes de d'autres maladies.

La maladie googlesque que j'ai étudié ne s'applique (pour l'instant ) qu'à ce genre de site.
 

bozoleclown

WRInaute impliqué
Pour les sites en marque blanche c'est pas tout simplement des pénalités liées au duplicate content ? pour pas aller chercher trop loin ?
 

Bouledogue

WRInaute passionné
bozoleclown a dit:
Pour les sites en marque blanche c'est pas tout simplement des pénalités liées au duplicate content ? pour pas aller chercher trop loin ?

non ce n'est du duplicate, j'ai cité que des marques blanches et autre code reduct, mais tu peux mettre dedans les faut moteurs, les générateurs de mots clefs etc...
 

nza2k

WRInaute impliqué
J'ai tout de même une question concernant le "sandbox impossible" :

Admettons que le site génére quotidiennement "trop" de nouvelles pages.

Il n'est pas dit que Google indexe ces nouvelles pages au rythme de leur création (la durée des crawls est très variable d'un site à un autre)... N'est-ce pas alors incohérent de sanctionner certains "producteurs de masse" (les sites qui sont souvent et longuement crawlés) et pas d'autres ? Je me place du point de vue de l'ingénieur GG qui pond l'algo là...

De même, admettons qu'un site aie généré beaucoup de pages d'un coup. Apparemment, ce n'est pas génant... Mais comment Google va-t-il comprendre que ces pages ont été générées d'un coup alors qu'il ne va les crawler que progressivement ? Comment fait-il la différence entre une création massive de pages "ponctuelle" Vs "régulière" ?

Attention, je ne cherche pas à réfuter la théorie de la sandbox impossible, je cherche juste à poser qq questions en vue de la préciser...
 

bozoleclown

WRInaute impliqué
nza2k a dit:
De même, admettons qu'un site aie généré beaucoup de pages d'un coup. Apparemment, ce n'est pas génant... Mais comment Google va-t-il comprendre que ces pages ont été générées d'un coup alors qu'il ne va les crawler que progressivement ? Comment fait-il la différence entre une création massive de pages "ponctuelle" Vs "régulière" ?

Google ne va peut etre pas crawler les pages
mais il verra surement les nouvelles URLs

En général les sites qui génèrent beaucoup de pages, font en sorte de coller des liens vers ces nouvelles pages, du coup google ne va peut etre pas les crawler mais il aura au moins découvert leur existence
 

Bouledogue

WRInaute passionné
nza2k a dit:
Attention, je ne cherche pas à réfuter la théorie de la sandbox impossible, je cherche juste à poser qq questions en vue de la préciser...

Pas de soucis, j'attendais ce genre de réponses un peu argumentées ;)

nza2k a dit:
J'ai tout de même une question concernant le "sandbox impossible" :

Admettons que le site génére quotidiennement "trop" de nouvelles pages.

Il n'est pas dit que Google indexe ces nouvelles pages au rythme de leur création (la durée des crawls est très variable d'un site à un autre)... N'est-ce pas alors incohérent de sanctionner certains "producteurs de masse" (les sites qui sont souvent et longuement crawlés) et pas d'autres ? Je me place du point de vue de l'ingénieur GG qui pond l'algo là...

Si il serait incohérent de sanctionner arbitrairement sur une base rigide, mais toutefois, j'ai noté, que aucun n'avait eu ce probléme sur une courte duré, c'est à dire, que cette sanction n'était appliqué qu'aprés un lapse de temps moyen de 3 à 5 mois de mise à jour.

nza2k a dit:
De même, admettons qu'un site aie généré beaucoup de pages d'un coup. Apparemment, ce n'est pas génant... Mais comment Google va-t-il comprendre que ces pages ont été générées d'un coup alors qu'il ne va les crawler que progressivement ? Comment fait-il la différence entre une création massive de pages "ponctuelle" Vs "régulière" ?

Bozo t'as répondu.
 

Thierry Bugs

WRInaute accro
coucou, je me joins à la conversation :

Sur un site "catalogue", il est normal qu'il y ait beaucoup de pages d'articles en référence, beaucoup d'images et peu de textes.
De même sur un "annuaire" beaucoup de liens
et sur un "blog" beaucoup de mot et beaucoup de post (x par jour).

Le googlebot "comme un humain" peut être pas, mais un minimum logique oui : pas de pénalisation pour une croissance "normale" ou "naturelle" selon le type de site, et pénalisation pour quelque chose d'étrange" ou non adapté, pour un site de cette "classe".

j'ai envie de rappeller que Larry Page avait beaucoup rigolé du nom donné par les webmasters à cette pénalisation, le nom de "sandbox" ne vient pas de google corp.
Il avait à l'époque, indiqué que la sandbox était un effet de conséquence pour un site web et pas un filtre spécifique pour les jeunes sites.

Cela donnerait raison à HawkEye sur le fait que n'importe quel site puisse être affecté quel que soit son âge, par l'envoi en "touche" ou "sandbox" ou autre nom qu'on voudra lui donner...
 

baptiste

WRInaute impliqué
Répondez en donnant vos convictions, je vous donnerait les miennes

Première expérience : j'ai un site avec beaucoup de page type catalogue ou comparateur de prix. En un an je suis passer à un PR 5. Et aussitôt mes visites ont chuté de 50 %. Sur ce site je n'ai jamais fait une modification je peux conclure que si vous avez un site et que vous ne faites pas de modification un jour ou l'autre il dégage de l'index.

Seconde expérience : j'avais un autre site j'ai fait exactement la même chose. J'ai décidé de retravailler dessus. J'ai place des textes au minimum cinq fois par semaine. Celui-ci remonte doucement dans l'index.

Troisième expérience : le site avec quelques mois je commençais à me positionner sur certains mots clef. En une journée j'ai mis grands coup de fouet sur les BL (je les ai doublés) et maintenant je ne sur l'index de plus de mois de mars . Pareillement jeu continuel alimenté en contenu tous les jours. gg passe tous les jours analysés les nouvelles pages. Il scanne en moyenne 180 pages par jour. Mais je ne les réactifs sur les mots clef que sur le "long train"

Voici pour mon retour d'expérience
 

Bouledogue

WRInaute passionné
baptiste a dit:
Troisième expérience : le site avec quelques mois je commençais à me positionner sur certains mots clef. En une journée j'ai mis grands coup de fouet sur les BL (je les ai doublés) et maintenant je ne sur l'index de plus de mois de mars . Pareillement jeu continuel alimenté en contenu tous les jours. gg passe tous les jours analysés les nouvelles pages. Il scanne en moyenne 180 pages par jour. Mais je ne les réactifs sur les mots clef que sur le "long train"

Voici pour mon retour d'expérience

J'ai un soucis, je n'ai rien compris à ta 3eme expérience .....
 

HawkEye

WRInaute accro
baptiste, je trouve tes conclusions très hâtives.

Pour le premier cas: quelle corrélation entre un export de PageRank et une chute de positionnement? --> aucune.
Quelques recherches sur les conséquences des data refresh te permettront d'apprécier autrement la question.

Pour le second cas, tu nous parles d'un site qui a une progression stabilisée et douce (5 pages par jour, je fouette des éditeurs pour moins que ça :lol: *): si le filtre SandBox agit précisément sur les modifications importantes apportées à la dynamique d'un site (les fortes accélérations (positives ou négatives)), il est normal qu'un site qui progresse "à son aise" n'en subisse qu'un très léger.
"Qui va piano va sano, e va lontano"

Pour le troisième cas, je crois qu'il manque des mots dans ton texte (ça arrive ;) ).
Note tout de même que 180BL c'est très très peu, et que 180 visites de GoogleBot par jour, c'est assez peu également.
Soit dit en passant, on parlera de "long tail" [en], ou de "longue traîne / longue queue" [fr] plutôt que de long train.

*ils vont m'en vouloir là...

++
 

david96

WRInaute passionné
Je trouve l'analyse d'Itraque plutôt pertinente (+1 reco)

On peut ajouter que pour la théorie : nombreux BL en peu de jours = Sandbox, celle-ci peut aussi s'appliquer pour une redirection 301, j'en ai malheureusement fait l'expérience ! :?

Idem avec le protocole 410 (page qui a existé, mais qui n'existe plus) !

J'avais mis ce système récemment pour les annonces qui n'étaient plus à pourvoir, histoire de respecter les normes (voir RFC) et de ne plus les voir indexer sur Google, le hic c'est qu'avec les arriérés ce sont des centaines de pages qui sont passées en error 410 !
Résultat : du jour au lendemain, disparition total de mon site ! J'ai donc opté pour la 301 (même si ce n'est pas exactement une redirection), le surlendemain, je suis revenu en top position... Ouf ! :D... Encore 2 mots clefs puissant à faire sortir de la sandbox (du à ma redirection massive de février 2007) et on y est ! :p

Je reviendrai sur mon système page 410 un peu plus tard, histoire de ne pas trop brusquer Mister Google :lol:
 

davalex

WRInaute discret
Redir 301 et Sandbox

Salut

Quand tu dis "Sandbox, celle-ci peut aussi s'appliquer pour une redirection 301, j'en ai malheureusement fait l'expérience", que veux tu dire par là ? Le fait d'avoir redirigé toutes les pages qui n'existaient plus vers la home via une redir 301 a été pénalisant?

Merci d'avance,
David Alex
 

shin_akuma

WRInaute occasionnel
Re: Redir 301 et Sandbox

davalex a dit:
Le fait d'avoir redirigé toutes les pages qui n'existaient plus vers la home via une redir 301 a été pénalisant?

Voilà le problème tu aurais du redirigé chaque ancienne page vers chaque nouvelle, donc oui je pense que ça a été pénalisant :?
 

davalex

WRInaute discret
Oui mais dans le cas où tu n'as pas vraiment d'équivalent de ces pages et que de plus, ces pages étaient sandboxées, tu ne peux pas obligatoirement rediriger chaque page vers une nouvelle :-(
On disait pourtant que la redir 301 est "notre ami" non? :-(
 

david96

WRInaute passionné
Tss, tss, chaque page avait été redirigée comme il se doit vers son duplicate ! ! :D

Je précise qu'avant la redirection massive en 301, mon site venait juste de sortir (pour ces deux mots clefs très concurrentiels) de la sandbox (9 mois d'attente) en me mettant en 1ère position et moi juste derrière j'attaque mon changement de nom ! Trop fort hein ?! :lol:.

Conclusion, lorsque l'on change qq. choses d'important sur notre site, il ne faut pas tout faire d'un coup au risque de brusquer Google...A noter que cela ébranle Google jusqu'à sa prochaine grande indexation trimestrielle, voir jusqu'à la deuxième, le temps qu'il digère ! :D
 

e-kiwi

WRInaute accro
j'arrive un peu tard sur ce débat :

sur mes tests :
un site ayant 400 pages connues par google s'est vu ajouté en un seul jour 24.000 pages. résultat : prime de fraicheur sur les pages une dizaine de jour, puis place finales. aucun impact négatif, aucune "sandbox" (le mot sandbox n est quand meme pas à utiliser tout le temps dès qu'un site baisse sous google !!)


avant le sitelinks (j'en ai 3) aucune baisse de positionnement non plus.

la sandbox que j'ai eu est survenu après un ajout de milliers de BL's proventn d'un meme site. le partenariat enlevé, j'ai retrouvé mes places normales.

voilou
 

david96

WRInaute passionné
@baptiste, bâ j'ai trouvé d'autres moyens pour faire connaître mon site (il n'y a pas que Google dans ce monde impitoyable :lol:) tout en sachant que celui-ci serait en bonne position une fois sorti de la sandbox, je n'ai jamais arrêté son référencement, bien au contraire !

@e-kiwi, 24 000 pages ajoutées, ce n'est pas réellement un changement tel que des modifications de pages, redirection, suppression etc.. intéressant en tous cas, je note... :D
 

Bouledogue

WRInaute passionné
e-kiwi a dit:
j'arrive un peu tard sur ce débat :

sur mes tests :
un site ayant 400 pages connues par google s'est vu ajouté en un seul jour 24.000 pages. résultat : prime de fraicheur sur les pages une dizaine de jour, puis place finales. aucun impact négatif, aucune "sandbox" (le mot sandbox n est quand meme pas à utiliser tout le temps dès qu'un site baisse sous google !!)

Salut E-kiwi

Pour le test que tu as fais en effet, il n'y a aucun PB (comme je l'ai dit sur ce post,) j'ai même essayé avec 150000 pages sur un site poubelle, et rien ne c'est passé de négatif,

Ma théorie, est ultra ciblée, sur l'ajout d'un nombre de pages/jour supérieurs (bien supérieur) aux nombres de visiteurs/jour et à la capacité humaine/jour de génération de ces même pages sur un lapse de temps quotidiennement elevé.

donc en gros je le répete :

J'ai un site X qui a un nombre de visiteurs Y mais je génére par jour Y*400 pages par jour sur un lapse de temps de 3 à 8 mois.
L'effet "sandbox Impossible" tant à mettre en evidence que GG opére un trie sur les sites capable de générer artificiellement des pages grace à l'abus massif des maques blanche, flux RSS ou autre générateur de contenu automatique.
 

e-kiwi

WRInaute accro
non je comprend pas la différence, j'avais 400 pages sous google, un trafic de 1000 visiteurs / mois, et du jour au lendemain je passe à 24.000 pages. je vois pas en quoi cela diffère de ce que tu m expliques
 

baptiste

WRInaute impliqué
david96 a dit:
il n'y a pas que Google dans ce monde impitoyable :lol:) tout en sachant que celui-ci serait en bonne position une fois sorti de la sandbox, je n'ai jamais arrêté son référencement, bien au contraire !

D'ou ma question : bcp de webmaster stop leurs referencement.
 

baptiste

WRInaute impliqué
e-kiwi a dit:
non je comprend pas la différence, j'avais 400 pages sous google, un trafic de 1000 visiteurs / mois, et du jour au lendemain je passe à 24.000 pages. je vois pas en quoi cela diffère de ce que tu m expliques

Journaliser pas en une fois
 

Bouledogue

WRInaute passionné
baptiste a dit:
e-kiwi a dit:
non je comprend pas la différence, j'avais 400 pages sous google, un trafic de 1000 visiteurs / mois, et du jour au lendemain je passe à 24.000 pages. je vois pas en quoi cela diffère de ce que tu m expliques

Journaliser pas en une fois

C'est ca !!

une mise à jour, reste une mise à jour, elle semble normale pour toi, pour moi, pour tout le monde, donc pour les bots aussi.

mais une journalisation automatique......... hum....

j'essais encore avec des exemples :

on fixe les visiteurs à 1000/jour et on dit que ton site est un site de guide d'achat (pas un comparateur) qui récupere les articles de pixmania, rue du commerce, la fnac, Cdiscount etc..... de facon totalement automatique et grâce à cela tu générent 8000 nouvelles pages par jour.

Le premier jour tu as 1000 pages indexées les bots sont content, ils repérent tes 8000 nouvelles pages que tu as. ILs n'ont pas le temps de les indexer, que tu as 8000 nouvelles pages, dés qu'ils s'en appercoivent tu en à encore 8000, etc... tout les jours.

Tu comprends que tes 1000 visiteurs ne peuvent pas faire 8 pages par jours tout les jours ?
Tu comprends, encore plus que toi, tu ne peux pas faire 8000 pages tapées par jours ?
Donc les bots, le comprennent aussi et te mette dans un état que j'appelle la "Sandbox Impossible" puisqu'il est impossible, qu'un site génére un ratio de 8 pages par visiteurs.

La plus part d'entre vous (je parle à E-kiwi) son bien plus féru en code, tests, stats et algo que moi, vous avez des termes plus technique pour le vérifier ou leur donner d'autre nom, mais je n'ai que du temps et des idées pour voir comment et pourquoi si je fais çà il ce passe çà .

J'ai appellé "Sandbox Impossible" parce que même si je connais et fini par comprendre vos punitions 950 et autre joujoux masochistes, j'aime bien la sandbox... ;)


Ce qu'il faut comprendre, c'est que je connais de prés ou de loin toutes vos phases connu de sandbox, prime de fraicheurs ou punition.
Là je suis tombé sur quelques choses, que ni les stats ni les les Francophones ne relevaient.

Je n'ai peut être rien trouvé, mais il est tout aussi probable, que j'ai découvert un des rouage complexe des dépositionnements.
 

david96

WRInaute passionné
baptiste a dit:
david96 a dit:
il n'y a pas que Google dans ce monde impitoyable :lol:) tout en sachant que celui-ci serait en bonne position une fois sorti de la sandbox, je n'ai jamais arrêté son référencement, bien au contraire !

D'ou ma question : bcp de webmaster stop leurs referencement.
Surtout pas ! La sandbox est applicable seulement sur certains mots clefs concurrentiels, mais pas pour tout ton site ;-) De plus, si tu ne continues pas ton référencement, une fois sortie de la sandbox, tu obtiendras pour ces mots clefs une pauvre position étant donné que tu as laissé dormir ton site à ce sujet.
 

Bellegarde-webb

WRInaute impliqué
HawkEye a dit:
Le filtre SandBox est appliqué indépendamment de l'âge du site.

Simplement, si on voit le filtre SandBox comme un "frein automatique" déclenché par la dynamique du site, et les changements dans cette dynamique, comme:

- augmentation massive et spontanée du nombre de pages disponibles
- changements brutaux dans le positionnement, dans l'optimisation, dans le nombre d'IBL
- etc...

...on peut alors concevoir que si deux sites d'âge ou de positionnement totalement différents, qui pratiqueraient précisément la même optimisation (exemple: +10.000 IBL en 1 semaine), subissent exactement le même filtrage (frein); mais que les effets n'en soient pas identiques:

- le "jeune site" a à son actif 10.000 IBL comptabilisés; lui en ajouter 10.000 en une semaine correspond à un "boost" de 100%

- le "vieux site" a à son actif 100.000 IBL comptabilisés; lui en ajouter 10.000 en une semaine correspond à un "boost" de 10%

--> les variations relatives sur le "vieux site" sont moins importantes que sur le "jeune site".
--> le "vieux site" subira moins d'effets filtrants.


Moi c'est comme ça que je vois "la SandBox".
Et c'est d'ailleurs à mon avis pour cette raison qu'on ressent une "prime de fraîcheur": quand un site est très très jeune, les écarts "avant-après" sont tellement importants qu'ils ne sont plus significatifs:

passer de 0 IBL à 10 IBL = "boost infini" :roll:

--> pour contrer les effets trop "erratiques", une "immunité à la SandBox" ("prime de fraîcheur") couvre le "tout jeune site".

C'est comme quand on démarre un gros moteur à pistons sur une vielle machine (bagnoles, avions,...): les aiguilles sont en butées et s'excitent pendant les premières secondes du démarrage: ce n'est pas à ce moment là qu'on va essayer de lire leur valeur.

Sidenote: ce qui est décrit ci-dessus est une des raisons pour lesquelles je conçoit très volontiers d'acheter du référencement automatique pour un site qui est bien installé, alors que je considère ça comme du suicide pour un site qui démarre.

Bravo HawkEye, une belle base de travail pour trouver la formule mathématique qui se cache derrière "le filtre sandbox". D'après toutes les discussions, je soupçonne qu'il y a une telle formule derrière la sandbox et que GG raffine ses formules en permanence: adaptation des poids de chaque paramètre par exemple et ajout d'autres paramètres plus rarement. On pourrait certainement trouver cette formule. Quelqu'un en a t-il eu entendu parler quelque part?
 

baptiste

WRInaute impliqué
Oui je suis d'accord avec toi David, d'où ma question " que faisais-tu pendant ce temps" par exemple mon site qui rencontre des problèmes avec l'index de GG continue à être actualisé tous les jours. Mais je voulais savoir qu'elle avait été la réaction.

Code:
Ce qu'il faut comprendre, c'est que je connais de prés ou de loin toutes vos phases connu de sandbox

itraque la théorie est comprise je pense de tous. (Et avéré) Maintenant ce qu'il serait intéressant de faire c'est de discuter sur les différentes façons de sortir sandbox. (Ou plutôt une des sandbox)

HA j'ai compris le X de sandbox :)
 

baptiste

WRInaute impliqué
Bellegarde-webb google et comme la recette du Coca-Cola ! Un secret ! Je ne comprends pas ceux qui cherchent à trouver une recette miracle dans l'indexation de leur site.

Les règles élémentaires sont connues de tous, pourquoi chercher plus loin et essayez de trouver le trukqui fait que vous serez le premier dès premier ! Si vous avez autant de temps devant vous, c'est que votre activité rentable, alors passer par une société spécialisée dans le domaine.

Et comme vous serez le premier des premiers, riches millions, vous pourrez ainsi racheter Google. Il nous donnait la recette miracle.
 

Bouledogue

WRInaute passionné
baptiste a dit:
itraque la théorie est comprise je pense de tous. (Et avéré) Maintenant ce qu'il serait intéressant de faire c'est de discuter sur les différentes façons de sortir sandbox. (Ou plutôt une des sandbox)

HA j'ai compris le X de sandbox :)

Pour la miéne ( :lol: à moi !!) c'est relativement simple, bloquer la génération de pages, continuer son indexation, et ses optimisations d'échanges de BL, changer une partie du site (agencement et textes) et commencer à remplir les pages d'un contenu plus .... dense.

Pour les autres, là j'écoute, et suis les conseilles de Hawk avec deux ou trois variantes perso, mais rien de bien révolutionnaire.
 

baptiste

WRInaute impliqué
Oui en gros continue comme dans le même sens avec quelques petites modifications peut-être plus de contenu..

Dans combien de temps on n'en sort ? sort d'un nous petit à petit ?
 

Bouledogue

WRInaute passionné
baptiste a dit:
Oui en gros continue comme dans le même sens avec quelques petites modifications peut-être plus de contenu..

Dans combien de temps on n'en sort ? sort d'un nous petit à petit ?
relativement court, dans mes cas le tout étant de bien attendre que toutes ou partie du site soit indéxé, faire des coupes franches (suppression) des tronçons les plus générateurs de peu de contenu. tout en forcant l'indexation de la nouvelle version.

Pour le court, il faut y voir 1 ou deux mois, contre jamais si on ne fait rien.
 

benko

Nouveau WRInaute
Bizarre!

J'ai un comparateur de prix, et indexe plusieurs fois par semaine des centaines de nouveaux produits et génère du coup des centaines de nouvelles pages produit correspondantes!
Pendant plus de 6 mois j'étais assez bien référencé sur un certain nbre de mots clés et avais la plupart de mes pages (plus de 1500) indexées sur google.
Mais depuis 2 mois j'ai perdu mon référencement (même ma 1ere place pour la requête sur mon NDD, sur google.fr, et non sur google.com) sur mes mots clés et n'ai plus que 300 pages indexées (les pages perdues étant celles des produits).
Etrangement je reviens une fois par mois (vers le 27) pendant 2 jours comme avant, puis redisparais.
Est ce que qlq'un à connu ça?
Merci

nb: Par rapport au sujet je viens d'enlever de mon site mes pages produits pour voir si cela change qlq chose.
 

Bouledogue

WRInaute passionné
Re: Bizarre!

benkouiten a dit:
J'ai un comparateur de prix, et indexe plusieurs fois par semaine des centaines de nouveaux produits et génère du coup des centaines de nouvelles pages produit correspondantes!
Pendant plus de 6 mois j'étais assez bien référencé sur un certain nbre de mots clés et avais la plupart de mes pages (plus de 1500) indexées sur google.
Mais depuis 2 mois j'ai perdu mon référencement (même ma 1ere place pour la requête sur mon NDD, sur google.fr, et non sur google.com) sur mes mots clés et n'ai plus que 300 pages indexées (les pages perdues étant celles des produits).
Etrangement je reviens une fois par mois (vers le 27) pendant 2 jours comme avant, puis redisparais.
Est ce que qlq'un à connu ça?
Merci

nb: Par rapport au sujet je viens d'enlever de mon site mes pages produits pour voir si cela change qlq chose.

T'es en plein dedans !!

Bien que je n'ai pas fait de test ou remonté d'infos sur les comparateurs.

Mais les symptomes que tu donnes sont ceux que j'ai étudiés.
 

benko

Nouveau WRInaute
Merci itraque! ton étude est assez intéréssante en tout cas. Je viens de supprimer, de mon site et de mon sitemap, les pages d'infos pour chaque produit afinde réduire le nbre de nouvelles pages générées (assez semblables en plus ds leur contenu) chaque jour.
De plus ces produits ne sont valables que 2 semaines au max, dc les pages étaient assez vite supprimées.
En attendant de voir ce que ça donne...!
 

david96

WRInaute passionné
baptiste a dit:
david96 a dit:
@benkouiten, quel statut ont tes pages, une fois supprimées, 404, 200, 301 ou 410... ?

oui oui
30105zd0.jpg


J'ai bien deviné que tu voulais dire +1 (enfin j'espère :lol:), mais je n'ai pu m'empêcher, désolé ->

Alors benkouiten, car mine de rien, faut qu'on avance sur ce problème de pages supprimées ou redirigées (en masse), si on apporte tous nos expériences, on devrait toucher au but ! :D

Je pense que ce blème est directement relié à la théorie de itraque ! :)
 

benko

Nouveau WRInaute
David, je viens tout juste de supprimer la génération de ces pages de mon site et de mon sitemap, elles n'étaient plus indexées sur google. Donc je n'ai pas de msg d'erreur.
 

Benefsnet

WRInaute occasionnel
Salut à tous,

Je subis probablement un déclassement partiel sur un de mes sites (+ de 3 ans d'âge) (chute du classement sur certaines requêtes, certaines pages).

Tout cela dure depuis 2 mois bientôt, début: 17 mai, 17 juin (la durée par palier d'un mois se confirmerait ?!): retour à la normale pendant quelques heures. Peut être trop de Bls...


Contacter Google pour lui dire que les résultats sont maintenant moins pertinents (des petits sites franchement moins complets que le mien sont beaucoup mieux classés...), une constatation manuelle pourra alors avoir lieu et ils feront sans doute le nécessaire. Cette solution est-elle envisageable, est-elle risquée ?
 

bozoleclown

WRInaute impliqué
Benefsnet a dit:
Contacter Google pour lui dire que les résultats sont maintenant moins pertinents (des petits sites franchement moins complets que le mien sont beaucoup mieux classés...), une constatation manuelle pourra alors avoir lieu et ils feront sans doute le nécessaire. Cette solution est-elle envisageable, est-elle risquée ?

8O
Bonjoru M. Google, mon site devrait être premier sur la requete "credit immobilier" en effet j'expose l'histoire du crédit à travers les ages de manière très détaillé.

Ok mais est ce que les visiteurs veulent connaitre l'historique du crédit immobilier ou trouver un crédit immobilier.
bref je ne pense pas que googe écoute les webmasters pour effectuer le classement des sites.
 

vinset

WRInaute discret
Darkcity a dit:
Sandbox siginie bac à sable, donc faut arrêter de ressortir ce mot à toutes les sauces...

l'ensemble de mes sites n'ont jamais été sandboxés, anciens comme récents...

plutôt que d'accuser Google et de mettre une étiquette "Sandbox" sur tout, faut plutôt se remettre en question...

si votre site descend de 100 places dans le classement, bah l'hébergeur était indisponible au moment où Google Bot est passé sur vos pages...

si votre site fait du yo-yo, c'est que vos concurrents essaient d'avoir votre place ou que Google change son algo...

si il disparait, c'est que GG fait une MAJ de ses datacenters et que votre site a été oublié en chemin...

Je suis quand même très dubitatif sur ces théories de "Sandbox" et autres "Punitions 950".

Je suis assez d'accord avec Darkcity. Je pense que même s'il existe un délai pendant lequel Google évalue si on ne fait pas n'importe quoi, le phénomène n'est pas aussi méchant que ça.

Tel que vous le décrivez, votre bac à sable (qui est un endroit dans lequel les enfants apprennent à marcher et s'amusent - c'est donc positif) ressemble plutôt à un bac à sable mouvant dans lequel on tomberait au hazard de nos pérégrinations sur le web en ayant beaucoup de mal à s'en dépétrer...

J'ai d'ailleurs toujours entendu parler de la sandbox sans que personne n'arrive à me dire comment on faisait pouyr savoir si on était sandboxé...!?
 

baptiste

WRInaute impliqué
Code:
J'ai d'ailleurs toujours entendu parler de la sandbox sans que personne n'arrive à me dire comment on faisait pouyr savoir si on était sandboxé...!?

exemple : quand je tapais mon domaine, j'apparaissais en deuxième position. Du jour où j'ai doublé BL, et, optimisé ma page d'accueil j'ai disparu de l'index de GG sur les plus grosses requêtes (en concordance avec les BL) ainsi que sur mon domaine. Voici comment je peux identifier qu'un de mes sites et "filtrer"

Je préfère utiliser le terme de filtres plutôt que celui "sandbox" car pour moi et selon mon expérience il s'agit bien de filtres.
 

Bouledogue

WRInaute passionné
vinset a dit:
J'ai d'ailleurs toujours entendu parler de la sandbox sans que personne n'arrive à me dire comment on faisait pouyr savoir si on était sandboxé...!?

Tu tapes site:www.tonsite.com si ta home n'est pas 1ere, tu l'es ..
 

HawkEye

WRInaute accro
baptiste a dit:
Je préfère utiliser le terme de filtres plutôt que celui "sandbox" car pour moi et selon mon expérience il s'agit bien de filtres.

"La SandBox", ou plutôt l'effet SandBox est un effet de filtre ;)
 

baptiste

WRInaute impliqué
Ce n'était pas le but je sais bien, ne t'inquiète pas :)

HawkEye ne penses-tu pas que la dénomination de filtres est plus simple à comprendre ? et à schématiser surtout !
 

magic

WRInaute discret
il me semble avoir lu :

" GG estime que ce n'est pas logique pour un site qui fait 100 vu / jour de generer 10 000 nouvelles pages par jour surtout si dans un meme temps un site qui fait 10 000 visiteurs / jour n'en cree que 1000 nouvelles pages / jour ... "

pourquoi pas mais je pense pas car comment GG peut il connaitre la frequentation d'un site si ces site là n'utilisent pas analytics biensur ;)
 

Bouledogue

WRInaute passionné
magic a dit:
il me semble avoir lu :

" GG estime que ce n'est pas logique pour un site qui fait 100 vu / jour de generer 10 000 nouvelles pages par jour surtout si dans un meme temps un site qui fait 10 000 visiteurs / jour n'en cree que 1000 nouvelles pages / jour ... "

pourquoi pas mais je pense pas car comment GG peut il connaitre la frequentation d'un site si ces site là n'utilisent pas analytics biensur ;)
80% de tes visiteurs viennent d'où ?
 

Megachercheur

WRInaute occasionnel
Baptiste, tu écris "HawkEye ne penses-tu pas que la dénomination de filtres est plus simple à comprendre ? et à schématiser surtout !" et je suis 100% d'accord avec toi. J'ai d'ailleurs eu récemment l'occasion d'échanger quelques posts avec HawkEye là-dessus, et ma foi ce qu'il dit sur le fond est assez convainquant. Par contre sur la forme, je défends comme toi l'usage du terme filtre qui me paraît très adapté...
 

Bouledogue

WRInaute passionné
Megachercheur a dit:
Baptiste, tu écris "HawkEye ne penses-tu pas que la dénomination de filtres est plus simple à comprendre ? et à schématiser surtout !" et je suis 100% d'accord avec toi. J'ai d'ailleurs eu récemment l'occasion d'échanger quelques posts avec HawkEye là-dessus, et ma foi ce qu'il dit sur le fond est assez convainquant. Par contre sur la forme, je défends comme toi l'usage du terme filtre qui me paraît très adapté...

Le tout est de donner une appellation d'un effet filtrant connu du plus grand nombre.
si je parle de sandbox, tout le monde comprends, si tu parle de filtre tu panique la plus part des types du forum....
 

Megachercheur

WRInaute occasionnel
itraque a dit:
si je parle de sandbox, tout le monde comprends, si tu parle de filtre tu panique la plus part des types du forum....
De toute façon qu'on appelle ça sandbox ou filtre, il y a vraiment de quoi paniquer...
 

vinset

WRInaute discret
Megachercheur a dit:
De toute façon qu'on appelle ça sandbox ou filtre, il y a vraiment de quoi paniquer...

Personnellement, je pense que c'est la suroptimisation qui engendre le bac à sable mouvant...

Trop de BL d'un coup: pas normal, des backilnks douteux: pas normal, trop de contenu d'un coup: pas normal...

Je trouve qu'il n'y a pas de quoi paniquer, il suffit de faire les choses le plus naturellement du monde (ça n'empêche pas d'optimiser ses pages en mettant le lien sur le nom du produit plutôt que sur "Cliquez-ici")

Mais c'est sûr que si on se dit "Tiens, je vais créer 3000 pages de contenu aujourd'hui qui parlent de "vélos" pour mieux positionner sur cette requête, faut pas s'étonner de ne pas apparaitre - ou pas tout de suite - dans les pages de résultats !
 

Megachercheur

WRInaute occasionnel
Vinset, je suis d'accord sur l'afflux subit et simultané de BL (mais je n'appellerais pas ça de la sur-optimisation, je n'appellerais même pas ça du SEO d'ailleurs !)

Par contre concernant le contenu, tu parles de quantité et là je ne suis pas du tout d'accord. Si quelqu'un (ou plutôt une team rédactionnelle) est capable de produire 200 pages de contenus originaux en 24h, il n'y aura pas de filtrage selon moi. S'il y avait du filtrage, ce serait un échec de Google en terme de pertinence !!!

Concernant le contenu je soulignerais plutôt le problème de la qualité (contenus non-originaux, dupliqués, bourrage de mots-clé ou plutôt "trop forte concentration de mots-clé" etc).

En résumé je dirais que Google filtre sur la quantité (trop grande) de BL et sur la qualité (trop faible) des contenus.
 

vinset

WRInaute discret
Megachercheur, certainement à valider, mais je pense qu'il ne sera pas très bien vu de générer d'un coup 200 pages de contenus en 24H et de ne plus rien faire ensuite. On parle beaucoup de "régularité" quand il est question d'être bien vu par Google.

Mais c'est certains, si tes 200 pages de contenus sont originales et qualitatives, elles seront indexées, mais certainement moins vite qu'une seule page du même acabit. A valider...
 
A

athama

Guest
Sandbox - On n'y comprends rien

Alors que la Sandbox est destinée à "sanctionner", "éprouver", ou "servir" un site... son comportement est des plus étranges.
Par exemple, le site de mon amie : http://www.crapoussin.com
est sandboxé, alors qu'il n'existe que depuis 2 mois, 5 visites par jour. Pas d'abus de mots clés ou autre. Juste du contenu fait honnêtement. D'ailleurs pour la partie annuaire, c'est une sélection rigoureusement que la personne a fait, ne pas indexer n'importe quel site pour gonfler ses pages.

A votre avis, quel type de sandbox subit-elle ? :? :? :?:
 

Megachercheur

WRInaute occasionnel
Il y a des sites que Google ne fait ressortir sur aucune requête, c'est très net. Je rappelle qu'un "site" n'est qu'un ensemble de documents (HTML ou autres) et que l'algorithme de Google n'indexe que des documents. Certains documents sont placés dans l'index principal de Google, d'autres sont placés dans l'index supplémentaire de Google (Résultat Supplémentaire). Et d'autres sont placés... nulle part !!!!!

Si l'algorithme estime qu'aucune des pages web de ta copine ne présente de contenus suffisamment originaux pour ressortir sur des requêtes, il ne ressortira nulle part. Google ne va tout simplement pas l'indexer (tu parles de 5 visiteurs par jour, ça doit être le cas du site dont tu parles).

La sandbox (ou les filtres d'algorithme) frappe mystérieusement (!) les sites de contenus qui devraient normalement ressortir et sont filtrés. Par contre les sites sans contenu ni actualisation doivent être considérés différemment, c'est abusif de dire qu'ils sont "en sandbox". Nous sommes en 2007, il faut se rendre à l'évidence : quelques millions de pages web ne ressortent pas aujourd'hui car Google les considère vides de contenus originaux ou susceptibles d'intéresser les internautes.
 

Megachercheur

WRInaute occasionnel
Athama comprend-moi bien, je n'ai rien contre le site de ta copine. Mais les sites qui pensent "faire du contenu honnêtement" comme tu dis, il y en a des millions. Les sites qui ne font aucun "abus de mots clés ou autre", il y en a des illions aussi. Et il y a sans doute quelques dizaines de milliers de webmasters qui s'efforcent de construire de vrais annuaires en en sélectionnant soigneusement le contenu. Est-ce suffisant pour ressortir sur les requêtes ? Définitivement, non. Google a-t-il une quelconque obligation morale de faire ressortir les sites construits "honnêtement" et "abus de mots clés" ? Certainement pas.

Peut-on en conclure dans ce cas que ces sites sont sauvagement sandboxés par Google ? Je ne pense pas. Garde en tête que Google ne fait ressortir qu'une poignée de sites (pour chaque requête, les 10 premiers résultats de la page 1) et les autres vont se faire voir ailleurs.

Il faut que ta copine persite à faire du contenu de qualité (=original et souvent mis à jour) et un jour peut-être elle commencera à recevoir plus que 5 visiteurs par jour venant de Google.
 
A

athama

Guest
Megachercheur a dit:
Il y a des sites que Google ne fait ressortir sur aucune requête, c'est très net. Je rappelle qu'un "site" n'est qu'un ensemble de documents (HTML ou autres) et que l'algorithme de Google n'indexe que des documents. Certains documents sont placés dans l'index principal de Google, d'autres sont placés dans l'index supplémentaire de Google (Résultat Supplémentaire). Et d'autres sont placés... nulle part !!!!!

Si l'algorithme estime qu'aucune des pages web de ta copine ne présente de contenus suffisamment originaux pour ressortir sur des requêtes, il ne ressortira nulle part. Google ne va tout simplement pas l'indexer (tu parles de 5 visiteurs par jour, ça doit être le cas du site dont tu parles).

La sandbox (ou les filtres d'algorithme) frappe mystérieusement (!) les sites de contenus qui devraient normalement ressortir et sont filtrés. Par contre les sites sans contenu ni actualisation doivent être considérés différemment, c'est abusif de dire qu'ils sont "en sandbox". Nous sommes en 2007, il faut se rendre à l'évidence : quelques millions de pages web ne ressortent pas aujourd'hui car Google les considère vides de contenus originaux ou susceptibles d'intéresser les internautes.

En fait avant le Sandboxing, le site ressortait sur plein de requête, comme c'est un site de critique de livres pour enfant, les titres ressortaient, et c'était ça ses visites... maintenant zéro visite... Depuis le sandboxing, plus aucune requête ne sorte, ni même le titre du site... Avant quand tu tapais le crapoussin, tu tombais sur une page avec le site répertorié... Maintenant, néant.
Nonseulement c'est sandboxé mais ils ont refusé dans la foulé l'affiliation à adsense, de là à parler de cause à effet, il n'y a qu'un pas... mais bon, c'est de l'affabulation... Tant que Google n'explique pas ses démarches clairement, on affabule toujours, c'est ce que fait 95% de ce forum, on essaie de deviner le mécanisme d'une montre, sans pouvoir l'ouvrir. :?
 

frenchhorn

WRInaute passionné
c'est peut etre un peu restreint ma vision de la sandbox mais je pense que l'interet de google de sandboxer un site c'est pour que le webmaster s'inscrivent dans adwords...limiter le google bombing est un joli pretexte pour la sandbox...non?
 
A

athama

Guest
frenchhorn a dit:
c'est peut etre un peu restreint ma vision de la sandbox mais je pense que l'interet de google de sandboxer un site c'est pour que le webmaster s'inscrivent dans adwords...limiter le google bombing est un joli pretexte pour la sandbox...non?

En tout cas, le mystère reste entier pour ce sandboxing... j'en suis pas à mon premier site sandboxé, les autres, il y avait toujours une explication (trop de mises à jour, trop de BL etc...) pour celui-ci, c'était on fait quand on en envie, tout doucement... Et plaf :lol: :lol: :lol:
 

slashou

Nouveau WRInaute
frenchhorn a dit:
c'est peut etre un peu restreint ma vision de la sandbox mais je pense que l'interet de google de sandboxer un site c'est pour que le webmaster s'inscrivent dans adwords...limiter le google bombing est un joli pretexte pour la sandbox...non?

Impossible, car il n'y a pas de "connexion" entre Google Search et Adwords. Si GG se lançait la-dedans, se serait la fin pour lui.
 

Discussions similaires

Haut