Bonjour à tous
Je voudrais faire part de mon expérience au sujet de la décente aux enfers «sandbox google » pour un de mes sites et demander quelques précisions pour y remédier.
Le site a été créé en février 2004
Après une indexation rapide de toutes les pages du site +6000 pages « réel », je précise réel parce que google affichait plus de 33000 pages avec la commande site, je me suis retrouvé dans la sandbox en novembre 2004 pour une période de 6 mois.
Le filtre enlevé le site à retrouver ses positions et augmenté considérablement son trafic avant de retomber en mai 2005 dans la sandbox pour une période de 7 mois.
Et la de nouveau sortie de sandbox début janvier 2006 avec une très grosse prise de positions sur les mots clés recherchés, augmentation par 4 du nombre de visiteurs en provenance de google. La home page c’est positionné sur sa thématique 6éme sur +-60 millions de résultats et des très bon résultas de positionnement pour de nombreuses pages du site (première page de résultat, voir simplement premier). Le nombre de page avec la commande « site : » est passé à +- 8000 pages
Début janvier 2006 comme beaucoup de site je retombe dans la sandbox après une année de bon positionnement.
Quelques précisions sur le site :
- annuaire régional
- page rank de 5
- les titres et descriptions des sites inscrits sont les mêmes que les informations de leurs balises title et description
- aucun changement à été effectué sur le site (structure du site, balise)
- quelques pages ont été ajoutés, 10 maxi
- nombre de page avec Gsitecrawler « 6500 »
- nombre de sites visibles par page « 10 liens »
- script maison
Les effets de la sandbox
- perte de 90% des positions du site
- Quelques pages reste bien positionnés sur des requêtes de plus de 1 millions de résultats (voir toujours premier)
- quand je tape le nom du site « ex monsite » je suis toujours visible alors que pour les autres sanbox je n’étais plus visible.
- Le nombre de page avec la commande site reste le même.
- Quand je recherche avec la commande « site : » la home page n’est plus en première position
Les interrogations ?
- google peut-il considéré quand utilisant les titres et description des sites pour le contenu de l’annuaire, que c’est du duplicate et donc filtrer le site ?
- pourquoi je suis encore visible sur certains mots clés
- en utilisant le contenu de plusieurs site sur la même page « 10 contenus de 10 sites différents » google considère que la page n’a pas de contenu propre et donc pénalise c’est pages en considérant que c’est du duplicate.
Des idées pour expliquer ce changement ?
Je voudrais faire part de mon expérience au sujet de la décente aux enfers «sandbox google » pour un de mes sites et demander quelques précisions pour y remédier.
Le site a été créé en février 2004
Après une indexation rapide de toutes les pages du site +6000 pages « réel », je précise réel parce que google affichait plus de 33000 pages avec la commande site, je me suis retrouvé dans la sandbox en novembre 2004 pour une période de 6 mois.
Le filtre enlevé le site à retrouver ses positions et augmenté considérablement son trafic avant de retomber en mai 2005 dans la sandbox pour une période de 7 mois.
Et la de nouveau sortie de sandbox début janvier 2006 avec une très grosse prise de positions sur les mots clés recherchés, augmentation par 4 du nombre de visiteurs en provenance de google. La home page c’est positionné sur sa thématique 6éme sur +-60 millions de résultats et des très bon résultas de positionnement pour de nombreuses pages du site (première page de résultat, voir simplement premier). Le nombre de page avec la commande « site : » est passé à +- 8000 pages
Début janvier 2006 comme beaucoup de site je retombe dans la sandbox après une année de bon positionnement.
Quelques précisions sur le site :
- annuaire régional
- page rank de 5
- les titres et descriptions des sites inscrits sont les mêmes que les informations de leurs balises title et description
- aucun changement à été effectué sur le site (structure du site, balise)
- quelques pages ont été ajoutés, 10 maxi
- nombre de page avec Gsitecrawler « 6500 »
- nombre de sites visibles par page « 10 liens »
- script maison
Les effets de la sandbox
- perte de 90% des positions du site
- Quelques pages reste bien positionnés sur des requêtes de plus de 1 millions de résultats (voir toujours premier)
- quand je tape le nom du site « ex monsite » je suis toujours visible alors que pour les autres sanbox je n’étais plus visible.
- Le nombre de page avec la commande site reste le même.
- Quand je recherche avec la commande « site : » la home page n’est plus en première position
Les interrogations ?
- google peut-il considéré quand utilisant les titres et description des sites pour le contenu de l’annuaire, que c’est du duplicate et donc filtrer le site ?
- pourquoi je suis encore visible sur certains mots clés
- en utilisant le contenu de plusieurs site sur la même page « 10 contenus de 10 sites différents » google considère que la page n’a pas de contenu propre et donc pénalise c’est pages en considérant que c’est du duplicate.
Des idées pour expliquer ce changement ?