Bonjour à tous,
Suite a une refonte complète d'un site d'actualités, il est est apparu dans les listes des erreurs d'exploration de Google Webmaster Tools un grand nombre de pages en erreur 404.
Afin de nettoyer ce désordre et ne plus faire apparaitre ces pages dans les moteurs, je souhaite supprimer ces urls de Google. J'aimerais beaucoup utiliser l'outil de suppression d'url disponible via GWT mais celui-ci m'oblige à ajouter mes urls un à un. Bien entendu, j'en ai plusieurs milliers.
Je me retranche donc vers le Disallow du fichier robots.txt. Cependant, est-ce que le fait d'avoir un fichier robots.txt de 2 Mo comportant plusieurs milliers de lignes peut gêner les moteurs ?
Quel alternative(s) me proposez-vous ?
Merci d'avance,
Suite a une refonte complète d'un site d'actualités, il est est apparu dans les listes des erreurs d'exploration de Google Webmaster Tools un grand nombre de pages en erreur 404.
Afin de nettoyer ce désordre et ne plus faire apparaitre ces pages dans les moteurs, je souhaite supprimer ces urls de Google. J'aimerais beaucoup utiliser l'outil de suppression d'url disponible via GWT mais celui-ci m'oblige à ajouter mes urls un à un. Bien entendu, j'en ai plusieurs milliers.
Je me retranche donc vers le Disallow du fichier robots.txt. Cependant, est-ce que le fait d'avoir un fichier robots.txt de 2 Mo comportant plusieurs milliers de lignes peut gêner les moteurs ?
Quel alternative(s) me proposez-vous ?
Merci d'avance,