Nouveau WRInaute
Salut salut .
Alors je vous raconte mon histoire .
- En 2004 je crée un site avec un nom de domaine en .com et un hebergement pro .
Je suis trés rapidement réferencé ( moins de 2 semaines ) et toutes mes pages le sont . ( je suis alors trés content )
- En 2005 probleme d'hebergeur et donc mon site n'existe plus.
Le nom de domaine est toujours valide et renvoie sur une page .free
Mais les pages referencées ne sont plus valide et donc renvoye une erreur 404 .
cependant pendant toute cette période google reference quand meme les pages . Malgré l'erreur 404 .
- En 2006 je relance le site avec un hebergeur pro .
( NOTE : j'ai la meta robots = ALL )
Et là c'est le debut du chauchemard .
Les anciennes pages sont toujours referencé ( 2 ans aprés )
Je tente donc une suppresion manuelle , je supprime 30 pages. ( par le module de suppression de google )
3-4 jours plus tard elles sont supprimé de google .
2 semaines aprés , elles y sont de nouveaux .
Et mes nouvelles pages n'y sont toujours pas .
Je fait le site en friendly URL ( re-writing ).
Toujours pas .
Je fait un sitemap avec le logiciel Yoda..
1 semaine aprés les pages du sitemaps commencent a etre referencé .
1 semaine plus tard plus rien , retour aux ancienne pages non valide .
Je met un robots.txt avec pour objectif de supprimer ces foutus pages.
Le sitemap me dit qu'il en a pris 38 en comptes mais elles sont toujours referencé .
Je fait le sitemap avec le script python de google .
je le met en place .
Toujours Rien .
On me dit de changer la meta Robot .
Je la passe a Robots = Index, Follow ...
Toujours rien .
Et pourtant le robot de google passe regulierement sur mon site .
Il m'a meme pompé 150 mo de bande passante le mois dernier .
avec plusieurs milliers de pages vue .
QQ peux t'il m'expliquer ce qui va pas ? me donner des conseils ??
Une question :
Combien de jours normalement entre le passage du robot et l'indexation de la page ?
Merci .
Bye
Alors je vous raconte mon histoire .
- En 2004 je crée un site avec un nom de domaine en .com et un hebergement pro .
Je suis trés rapidement réferencé ( moins de 2 semaines ) et toutes mes pages le sont . ( je suis alors trés content )
- En 2005 probleme d'hebergeur et donc mon site n'existe plus.
Le nom de domaine est toujours valide et renvoie sur une page .free
Mais les pages referencées ne sont plus valide et donc renvoye une erreur 404 .
cependant pendant toute cette période google reference quand meme les pages . Malgré l'erreur 404 .
- En 2006 je relance le site avec un hebergeur pro .
( NOTE : j'ai la meta robots = ALL )
Et là c'est le debut du chauchemard .
Les anciennes pages sont toujours referencé ( 2 ans aprés )
Je tente donc une suppresion manuelle , je supprime 30 pages. ( par le module de suppression de google )
3-4 jours plus tard elles sont supprimé de google .
2 semaines aprés , elles y sont de nouveaux .
Et mes nouvelles pages n'y sont toujours pas .
Je fait le site en friendly URL ( re-writing ).
Toujours pas .
Je fait un sitemap avec le logiciel Yoda..
1 semaine aprés les pages du sitemaps commencent a etre referencé .
1 semaine plus tard plus rien , retour aux ancienne pages non valide .
Je met un robots.txt avec pour objectif de supprimer ces foutus pages.
Le sitemap me dit qu'il en a pris 38 en comptes mais elles sont toujours referencé .
Je fait le sitemap avec le script python de google .
je le met en place .
Toujours Rien .
On me dit de changer la meta Robot .
Je la passe a Robots = Index, Follow ...
Toujours rien .
Et pourtant le robot de google passe regulierement sur mon site .
Il m'a meme pompé 150 mo de bande passante le mois dernier .
avec plusieurs milliers de pages vue .
QQ peux t'il m'expliquer ce qui va pas ? me donner des conseils ??
Une question :
Combien de jours normalement entre le passage du robot et l'indexation de la page ?
Merci .
Bye