Limites du fichier robots.txt 100 lignes pour GOOGLE

WRInaute discret
Supprimer des pages, des sous-répertoires ou des images à l'aide d'un fichier robots.txt.
http://services.google.com:8882/urlconsole/controller

J'ai testé la fonctionnalité de suppression d'url par le robots.txt de google
cela fonctionne tres bien en un peu moins de 24h
mais par contre il y a une limite de nombre de ligne dans le robots.txt qui est de 102 Lignes
au dela google nous le signale par un message lors de la soumission du fichier robots.txt

es ce que cela est une limite particulière de google ou de l'utilisation generale du fichier robots.txt, je fais des recherches mais je n'ai trouve aucune information a ce sujet là ???

j'ai plus 5700 urls en duplicate content a supprimer
https://www.google.fr/search?num=100&hl= ... cher&meta=
et pour l'instant c'est la methode la pus rapide pour les supprimer de l'index de google
 
WRInaute discret
LOL t'a qu'a utilisé l'url-rewriting qui dirige toutes les urls que tu veux plus sur un script PHP qui ne fera rien d'autres qu'un redirect permanent
 
WRInaute passionné
Une page 404 personnalisée menant sur error.php qui va récupérer le REQUEST_URI et le traiter pour renvoyer la bonne page avec un header 301 aurait été la solution.
 
Discussions similaires
Haut