2647 Erreurs d'Exploration Depuis + de 6 Mois - Que Faire ?

Nouveau WRInaute
Salut à tous, j'espère que vous allez pouvoir m'aider.

Voilà le topo:

Il y a environ 1 an, j'ai installé un site JOOMLA avec JOMSOCIAL, un composant de style "Réseau Social".

Or, il y a environ 6 mois, j'ai décidé de laisser tomber ce projet pour transformer mon site (même URL) en Blog Wordpress.

Donc maintenant au lieu d'avoir des milliers de pages différents, j'en ai seulement une 20aine.

Le problème c'est que depuis que j'ai changé de ce "réseau social" vers le "blog", j'ai plus de 2647 "erreurs 404" (lorsque je vais sur Webmaster Tools).

D'après ce que je vois, la plupart des pages sont encore indexés par les moteurs de recherche.

J'ai envoyé mon nouveau sitemap à google mais rien à faire pour supprimer ces fichus page de google.

Les erreurs 404 sont par exemple des liens comme "accueil/mes-amis/" ou "accueil/mes-videos/"

Bref, il y a encore des trucs comme "Mes évènements" ou même des trucs de recherches comme "search/field?FIELD_COUNTRY=Canada"

Si je regarde mes stats sur google analytic, je reçois encore du trafic lorsque l'on tape le nom d'une personne qui était inscrite sur le site.

Enfin, que dois-je faire? Y a-t-il quelque chose que je dois modifier dans le fichier robot texte ou dans le ht access, je ne sais plus :p aidez-moi SVP !!!!

Voici le lien de mon site : www.un-monde-different.net
 
WRInaute accro
Si ce sont des pages qui n'ont pas d'équivalent, je bloquerait tous les dossiers concernés via ton robots.txt et j'en demanderais la suppression via Google Webmaster Tools.
 
Nouveau WRInaute
Bonsoir,

C'est une erreur grave car google ne comprends pas tout et si tu lui demande pas de supprimer des urls ça restera longtemps.

1) Va dans google analytics
2) Optimisation
3) Url à supprimer

Et la suite tu la connais, il faut tout lui demander de supprimer en réécrivant les adresses une par une. Sinon tu peux également faire des redirectiosn 301

Voici un autre sujet sur le forum : https://www.webrankinfo.com/forum/suppression-des-urls-dans-outil-webmaster ... 38675.html
 
WRInaute accro
A priori pour supprimer des pages isolées, le recours au robots.txt n'est pas nécessaire si elles sont en 404, mais pour supprimer tout un dossier, pas le choix : https://support.google.com/webmasters/bin/answer.py?hl=fr&answer=59819

Pour supprimer le contenu d'un répertoire ou l'intégralité de votre site, vous devez vous assurer que les pages à supprimer ont été bloquées à l'aide d'un fichier robots.txt.Le fait qu'un répertoire renvoie un code d'état 404 n'est pas suffisant, car il est possible qu'un répertoire renvoyant un tel code puisse tout de même afficher les fichiers situés dans ses sous-répertoires. L'utilisation d'un fichier robots.txt pour bloquer un répertoire garantit que tous ses sous-répertoires sont également désactivés.
 
WRInaute accro
Non, tu bloques tous les dossiers qui te génères des 404 via le robots.txt, et tu supprimes ces dossiers dans GWT. La suppression d'un dossier entraîne la suppression des pages qu'il contient.
 
Nouveau WRInaute
OKAY,

UsagiYojimbo a dit:
Non, tu bloques tous les dossiers qui te génères des 404 via le robots.txt, et tu supprimes ces dossiers dans GWT. La suppression d'un dossier entraîne la suppression des pages qu'il contient.

Comment je fais pour bloquer tous les dossiers qui me génèrent des 404 ?

(Vraiment désolé jsuis pas très avancé sur ce sujet là! :p )

"Bloquez le contenu à l'aide d'un fichier robots.txt."

Ouais ok, mais comment, qu'est-ce que je dois ajouter au robots.txt ?
 
Nouveau WRInaute
Super, donc exemple, je veux supprimer les urls de ce genre là: accueil/mon-profil/498-laurent-paque

je rajoute ça à robots.txt:

User-Agent: Googlebot
Disallow: /mon-profil/

et si je veux supprimer ce type: accueil/mes-videos/458-simone-ricard?sort=title

je rajoute ça à robots.txt:

User-Agent: Googlebot
Disallow: /mes-videos/

Est-ce exact ? 8O
 
Discussions similaires
Haut