Crawl apres suppression urls

WRInaute discret
Bonjour
je veux supprimer toutes les urls d'un sous dossier et reprendre le crawl dans ce meme sous dossier
domaine.com/sousdossier/urls-a-supprimer --->>> domaine.com/sousdossier/nouvelles-urls-a-crawler

avec le demande de suppression et
User-agent: Googlebot
Disallow: /sousdossier

apres que les urls ont été supprimées
les nouvelles urls vont-elles etre crawler (tout de suite ou non) ?
quel est l'impact sur le crawl à venir ?
 
WRInaute discret
et après l'avoir enlevé
(bien entendu, et évidement, et cela va de soit, et of course, et c'était évident, et naturellement, et ...)

quel est l'impact sur le crawl
 
WRInaute accro
Après l'avoir enlevé, tu peux forcer le recrawl du dossier depuis GWT.

Mais dans ton cas de figure, je me serais plus reposé sur l'ajout d'une meta robots noindex sur les pages à désindexer que sur une règle dans le robots.txt.
 
Discussions similaires
Haut