Sandbox or not sandbox ?

WRInaute discret
Bonjour

Voila, je sais que mon site est jeune mais je m'interroge quand même sur un éventuel passage par la case sandbox. Le site a été lancé début Aout, le référencement a été soigné et intégré au développement (title, optimisation et mise en forme du contenu, images, url rewriting, ancres des liens etc...) et des soumissions dans des annuaires ont été effectuées petit à petit, avec prudence cependant.
J'ai un positionnement très bon sur msn, je suis premier sur ma requète principale, assez concurrentielle, et bien placé sur d'autres, alors que sur Google et yahoo, rien du tout.

Les pages ont été correctement indexées et GG me fournit depuis peu des résultats quand je tape la commande link:

Le truc qui m'interpelle c'est que j'ai fait un lien en pied de page vers ce site à partir de 2 autres sites, assez conséquents en nombre de pages... Cela a t-il pu engendrer la sandbox le cas échéant ? Si oui, les enlever serait une solution ?
 
WRInaute occasionnel
je suis exactement dans le même cas que toi depuis 1 ans maintenant.
Google m'envoit de plus en plus de visiteur depuis le lancement mais ce n'est pas significatif par rapport à d'autres moteurs...

la patience est la meilleure arme dans ce cas je pense.
 
WRInaute occasionnel
rincevent a dit:
Le truc qui m'interpelle c'est que j'ai fait un lien en pied de page vers ce site à partir de 2 autres sites, assez conséquents en nombre de pages... Cela a t-il pu engendrer la sandbox le cas échéant ? Si oui, les enlever serait une solution ?
Pour classer les sites dans son index, Google mesure le degré de confiance qu'il peut leur attribuer. Un site nouvellement lancé a donc un facteur de confiance de zéro. Peu à peu, il va gagner de la confiance aux yeux de Google, à travers plusieurs facteurs souvent discutés ici même sur WRI : contenus, fréquence des mises à jour, nombre et qualités des liens rentrants (BL) etc.

Si tu as linké des centaines de BL provenant de deux noms de domaine différents vers ton site tout neuf, le passage dans la sandbox est immédiat. Le fait de ressortir très bien dans MSN mais très mal dans Google en est un symptome.

L'existence de la sandbox n'est plus mis en cause aujourd'hui par les personnes un tant soit peu sérieuses. Certains sites ne passent quasiment pas dans la case "sandbox" et ont presqu'immédiatement une forte visibilité dans les résultats de recherche. Cela ne prouve rien, dans la mesure où l'écrasante majorité des sites passent par une phase de sandbox, même si sa durée est extrêmement variable et dépend comme je l'ai dit de la capacité du site à gagner du "facteur confiance" (mieux connu sous le nom de trustrank).

Ton site (comme tout les nouveaux NDD) avait une confiance de zéro, maintenant tu l'as mis en liste rouge. Tu peux supprimer tes liens spammy, c'est le minimum mais n'en attend pas de résultat immédiat.
 
WRInaute discret
Arf... le truc c'est que à la base ces liens n'étaient uniquement destiné à institutionnaliser le site, car les deux autres noms de domaines qui font des liens vers mon nouveau site sont apparentés (même société), et je pensais pas forcément à spammer Google. Je vais donc les enlever, en espérant que ça améliore un peu ce facteur confiance.

Je pensais également que le fait que les backlinks viennent de seulement 2 noms de domaines(pied de page) réduisait le coté spamming
 
WRInaute discret
ah autre chose, en tappant la commande site : seuls 2 résultats s'affichent plus un troisième en résultat similaire, alors que google m'indique que 334 pages sont indexées... un autre symptome de sandbox ?

Comment en sortir si c'est le cas ?
 
WRInaute accro
rincevent a dit:
ah autre chose, en tappant la commande site : seuls 2 résultats s'affichent plus un troisième en résultat similaire, alors que google m'indique que 334 pages sont indexées... un autre symptome de sandbox ?

Comment en sortir si c'est le cas ?
+1, même observation sur un de mes sites, la commande site:www.example.com indique 56 pages indexées et seulement 3 à l'affichage (même en comprenant les pages ignorées)

Que pasa ?
 
WRInaute occasionnel
rincevent a dit:
Quelqu'un aurait un élément de réponse ?
Oui. C'est un symptome de pénalité. Les pages qui n'apparaissent pas (même en faisant "Montrer les pages ignorées") sont tout simplement déréférencées (que j'utilise dans ce cas plutôt que désindexées, je garde désindexées pour les pages qui ont carrément disparues de l'index, ce qui n'est pas le cas des tiennes).

Très souvent, c'est parce qu'elles montrent un contenu dupliquée. Exemple, tu as un site avec 20 pages de vrais contenus, mais tu en as généré dynamiquement 20000 "à la volée" en utilisant une base de données et les ressources du langage PHP. Google n'est pas dupe et ne les montrent pas, elles sont plombées. Il faut les supprimer. Dans ton cas, il n'y a que quelques pages dans cette situation, il faut commencer par les supprimer physiquement du serveur (utilise également robots.txt et erreur 410 dans le .htaccess, pour les supprimer de l'index de Google : elles n'apparaissent pas mais existent bien).

Parfois ce n'est pas du contenu dupliqué, c'est à cause de la sur-optimimisation (mots-clé répétés trop souvent, de façon artificielle), voir même parfois du spamindex léger (des pages satellites réalisées avec intelligence et sans redirection, mais qui sont satellites quand même dans le sens où elles n'existent que pour capturer du mot-clé) qui ne justifie pas la liste noire mais pas loin.

Une fois les pages virées, tu peux ensuite les remodeler pour les rendre référençables de nouveau, si elles ont un vrai contenu.
 
WRInaute accro
? je connais un autre site, un site de vente en ligne, qui affiche ce type de résultats, moins de 10 pages affichées sur un total de plus de 300, alors que ces pages sont clean depuis le rachat d'un nom de domaine il y a plusieurs mois. Le "semi-blacklistage" survit-il à un rachat de nom de domaine ?
 
WRInaute discret
Ainsi on pourrait donc parler de "semi blacklistage" ?! Pourquoi pas puisque ce n'est pas de la désindexation pure

Pour ma part, j'ai pourtant bien fait attention aux problématiques de duplicate content, notamment dans mes urls et mes title, car il est vrai que pas mal de page ont un contenu similaire, mais jamais identique à 100%. Un de mes autres sites est fait de la même façons et il n'y a aucun soucis de ce type

Par contre je ne pratique aucune technique "limite" voire interdite, et je trouve bizare que GG me punisse. Les mots clés ne sont pas non plus utilisés de façon abusive...
 
WRInaute occasionnel
rincevent a dit:
il est vrai que pas mal de page ont un contenu similaire
Ne cherche pas plus loin. Voilà, tu sais ce qu'il te reste à faire...
Ps : je ne cautionne pas cette expression de semi-... qui n'a aucun sens.
 
WRInaute discret
ce sont des pages dynamiques dont le nombre est important et dont seule une ou 2 variables changent de l'une à l'autre page, elles me sont importantes mais je vais limiter l'indexation de celles ci avec
<meta name="googlebot" content="noindex,nofollow">

Je ne peut pas les enlever du serveur, pour les visiteurs,est ce que cette balise suffira pour les supprimer de l'index de GG ?
 
WRInaute occasionnel
rincevent a dit:
ce sont des pages dynamiques dont le nombre est important et dont seule une ou 2 variables changent de l'une à l'autre page
Depuis les deux ou trois dernières années, il y a un certain nombre de webmasters qui ont acquis l'expérience du référencement de sites marchands avec un catalogue fondé sur base de données avec une ou deux variables. Je préfère passer mon tour sur cette question, sacrément complexe pour qui n'en a pas une expérience directe. On verra si quelqu'un daigne te répondre sur ce point.
 
WRInaute discret
En tous cas je viens de m'apercevoir que les résultats fournis par la commande site: ne sont plus cachés et apparaissent comme avant... bizarre non ?
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut