Bonjour,
Pour le lancement de la nouvelle version d'un site, je dois rediriger toutes les urls obsolètes vers de nouvelles urls. Pour la majorité, pas de soucis, quelques règles de redirection en 301 devraient permettre de mettre à jour l'index de google rapidement.
Mais pour une forme d'url dynamique en particulier, je n'ai pas la possibilité de les rediriger vers la nouvelle forme "propre" d'url réécrites et doit me contenter d'une forme d'url complexe contenant une multitude de paramètres. Or ces urls "sales" ne doivent pas être indexées car ce sont des duplicates des urls propres. Elles comportent des meta-robots="noindex" et leur crawl est bloqué par un robots.txt
Du coup, je me demandais si Google aller pouvoir mettre à jour son index dans la mesure où je vais rediriger googlebot en 301 vers des pages non-crawlable, non indexable ? Devrais-je plutôt retourner un 404 ?
Merci !
Pour le lancement de la nouvelle version d'un site, je dois rediriger toutes les urls obsolètes vers de nouvelles urls. Pour la majorité, pas de soucis, quelques règles de redirection en 301 devraient permettre de mettre à jour l'index de google rapidement.
Mais pour une forme d'url dynamique en particulier, je n'ai pas la possibilité de les rediriger vers la nouvelle forme "propre" d'url réécrites et doit me contenter d'une forme d'url complexe contenant une multitude de paramètres. Or ces urls "sales" ne doivent pas être indexées car ce sont des duplicates des urls propres. Elles comportent des meta-robots="noindex" et leur crawl est bloqué par un robots.txt
Du coup, je me demandais si Google aller pouvoir mettre à jour son index dans la mesure où je vais rediriger googlebot en 301 vers des pages non-crawlable, non indexable ? Devrais-je plutôt retourner un 404 ?
Merci !