Bonjour,
Petite question pour un site, où je souhaiterais qu'un grand nombre de pages ne soient pas crawlées ni indexées.
Ces pages sont en noindex, ou avec canonical, comment éviter également leur crawl (suite au message de Google "Grand nombre d'URL détectées") ? A priori, je pensais qu'il ne fallait pas ajouter également les directives au robots.txt pour que Google voit le noindex et jusqu'à maintenant, je préférai mettre en noindex un contenu qui n'a pas d'importance pour Google et les visiteurs du site. Cela ne semble pas suffisant. Analyse de logs prévue mais pas pour tout de suite...
Merci pour votre avis.
Petite question pour un site, où je souhaiterais qu'un grand nombre de pages ne soient pas crawlées ni indexées.
Ces pages sont en noindex, ou avec canonical, comment éviter également leur crawl (suite au message de Google "Grand nombre d'URL détectées") ? A priori, je pensais qu'il ne fallait pas ajouter également les directives au robots.txt pour que Google voit le noindex et jusqu'à maintenant, je préférai mettre en noindex un contenu qui n'a pas d'importance pour Google et les visiteurs du site. Cela ne semble pas suffisant. Analyse de logs prévue mais pas pour tout de suite...
Merci pour votre avis.