Bonjour
je veux supprimer toutes les urls d'un sous dossier et reprendre le crawl dans ce meme sous dossier
domaine.com/sousdossier/urls-a-supprimer --->>> domaine.com/sousdossier/nouvelles-urls-a-crawler
avec le demande de suppression et
User-agent: Googlebot
Disallow: /sousdossier
apres que les urls ont été supprimées
les nouvelles urls vont-elles etre crawler (tout de suite ou non) ?
quel est l'impact sur le crawl à venir ?
je veux supprimer toutes les urls d'un sous dossier et reprendre le crawl dans ce meme sous dossier
domaine.com/sousdossier/urls-a-supprimer --->>> domaine.com/sousdossier/nouvelles-urls-a-crawler
avec le demande de suppression et
User-agent: Googlebot
Disallow: /sousdossier
apres que les urls ont été supprimées
les nouvelles urls vont-elles etre crawler (tout de suite ou non) ?
quel est l'impact sur le crawl à venir ?