WRInaute impliqué
Bonjour,
J'ai un cruel dilemme depuis ce matin.
Si un site possède une page accessible à partir de plusieurs url, vaut il mieux :
- rajouter les urls en trop dans un fichier robots.txt ?
- créer des redirections 301 et tout rebalancer sur une seule url ?
Bien entendu, ceci n'est qu'un exemple, car mon cas concerne un site dont 56 pages qui ont chacune plus d'une url d'accès.
D'avance, merci
J'ai un cruel dilemme depuis ce matin.
Si un site possède une page accessible à partir de plusieurs url, vaut il mieux :
- rajouter les urls en trop dans un fichier robots.txt ?
- créer des redirections 301 et tout rebalancer sur une seule url ?
Bien entendu, ceci n'est qu'un exemple, car mon cas concerne un site dont 56 pages qui ont chacune plus d'une url d'accès.
D'avance, merci