Ne comprends comment supprimer ces pages fantomes

Nouveau WRInaute
Bonjour,

Si le sujet est traité ailleurs, je serai ravi d'y être guidé.

J'ai mis en ligne un site qui est censé respecter les règles suivantes : Pagination type "see all", comptes utilisateurs, requete de recherche en noindex.

L'ancien site avec de nombreux urls liés à de nombreuses pages générées par pagination, idem sur la partie recherche etc.

J'avais donc décidé de mettre ces pages en erreur 301 en le redirigeant vers le contenu le plus approprié (toutes les paginations liées à un contenu vidéo, à la nouvelle page présenant les vidéos etc...)

Cependant le nombre de pages crawlées a même augmenté.

Il me semblait que l'erreur 301 faisait une redirection et ensuite google désindéxait l'ancien url ne restant que la page de destination, réduisant le nombre de pages.

Me serais-je trompé sur l'utilité du 301 ?

Le site est en ligne depuis 3 semaines, dois-je attendre plus longtemps bien qu'ayant fourni un site Map de 700 liens ? (google crawl 9000)

Voilà pour le site :

site:www.peches-sportives.com

Merci pour votre aide !
 
WRInaute discret
Bonjour,

Je dirais qu'il faut encore attendre. S'armer de patience.
J'ai un peu le même problème (un peu différent quand même, donc je vais faire un autre post).

Apparemment GG met beaucoup de temps en ce moment, des spiders en grève ? des serveurs qui ont sauté ?

En principe les 301 devraient nettoyer. Si elles sont bien faites (header 301). Mais c'est vrai qu'en général ça met du temps pour le site complet, ça va vite sur certaines, et pour qu'il refasse le site en entier je dirai un mois (au minimum, voir plus) cela dépend du site et de son volume. A moins que ça ait changé ? car moi aussi des 301 page par page, (depuis 3 semaines aussi) et pas terrible.

Attends de voir le résultat final. Et ce qui n'aura pas été nettoyé tu pourras toujours l'enlever via webmaster tools. Mais vaut mieux attendre longtemps avant de prendre cette solution.

Si 301 correctes a mon avis il faut patienter. (vérifie tes headers)

La seule chose qui m'inquiète dans ton cas c'est le nombre de pages indexées.
Combien de pages avait l'ancien site sur google ?
Combien de pages a réellement ton site actuellement ?

J'ai l'impression que ce sont tes tags qui augmente de la sorte le nombre de pages non ?

voir requête :
6090 pour site:peches-sportives.com/tag/
602 pour site:peches-sportives.com/category
239 pour site:peches-sportives.com/produit
798 pour site:peches-sportives.com/categorie-produit

voir si tu as pas du double contenu dans toutes ces pages ?


En tout cas tu as bien un double contenu parce que tu as indexé ton site PLUS ton site en développement !!!!!
"dev.peches-sportives.com"

4930 pour "site:dev.peches-sportives.com"

Bon apparemment tes dev sont des 404, donc elles devraient disparaître. Mais attention tu as mis un robos txt sur ton site en dev, qui interdit les moteurs
User-Agent: *
Disallow: /

Alors là je laisse à plus expert que moi :

Avec un robots.txt de ce type ? google va comprendre les 404 ou va-t-il stopper et mettre le message typique :
La description de ce résultat n'est pas accessible à cause du fichier robots.txt de ce site.

A mon avis il a déjà commencé, on le voit sur ces urls
"http://dev.peches-sportives.com/produit/32-guide-entomologique-du-pcheur-la-mouche/"
"http://dev.peches-sportives.com/10969-traitement-du-bois-quelles-consequences-pour-nos-rivieres/"

Si t'as rien sur le dev (je dirais qu'il faut enlever ton robots.txt ou l'écrire autrement et permettre de lire , pour qu'il comprenne qu'il y a des 404)

je laisse les autres donner leur avis.

Bonne soirée
 
Nouveau WRInaute
merci, je vais méditer tout ça ! mais déjà il mes semble que google scan mes 600 a peu prêt lien donc oui patience, et je vais voir ce site de dev ;)

Merci !
 
Discussions similaires
Haut