WRInaute discret
Supprimer des pages, des sous-répertoires ou des images à l'aide d'un fichier robots.txt.
http://services.google.com:8882/urlconsole/controller
J'ai testé la fonctionnalité de suppression d'url par le robots.txt de google
cela fonctionne tres bien en un peu moins de 24h
mais par contre il y a une limite de nombre de ligne dans le robots.txt qui est de 102 Lignes
au dela google nous le signale par un message lors de la soumission du fichier robots.txt
es ce que cela est une limite particulière de google ou de l'utilisation generale du fichier robots.txt, je fais des recherches mais je n'ai trouve aucune information a ce sujet là ???
j'ai plus 5700 urls en duplicate content a supprimer
https://www.google.fr/search?num=100&hl= ... cher&meta=
et pour l'instant c'est la methode la pus rapide pour les supprimer de l'index de google
http://services.google.com:8882/urlconsole/controller
J'ai testé la fonctionnalité de suppression d'url par le robots.txt de google
cela fonctionne tres bien en un peu moins de 24h
mais par contre il y a une limite de nombre de ligne dans le robots.txt qui est de 102 Lignes
au dela google nous le signale par un message lors de la soumission du fichier robots.txt
es ce que cela est une limite particulière de google ou de l'utilisation generale du fichier robots.txt, je fais des recherches mais je n'ai trouve aucune information a ce sujet là ???
j'ai plus 5700 urls en duplicate content a supprimer
https://www.google.fr/search?num=100&hl= ... cher&meta=
et pour l'instant c'est la methode la pus rapide pour les supprimer de l'index de google