Redirection 301 ou robots.txt ?

WRInaute impliqué
Bonjour,

J'ai un cruel dilemme depuis ce matin.
Si un site possède une page accessible à partir de plusieurs url, vaut il mieux :

- rajouter les urls en trop dans un fichier robots.txt ?
- créer des redirections 301 et tout rebalancer sur une seule url ?

Bien entendu, ceci n'est qu'un exemple, car mon cas concerne un site dont 56 pages qui ont chacune plus d'une url d'accès.

D'avance, merci :)
 
WRInaute accro
Bonjour
Plutôt des redirections 301 si ces plusieurs URL amènent vers le même contenu, avec modification des liens pour qu'ils pointent vers une seule URL (tant qu'à faire)

Plutôt des balises rel "canonical" si des éléments (design par exemple) changent selon les URL
 
WRInaute impliqué
Merci nickargall.
Alors je vais mettre des redirections 301 car il s'agit, généralement, de pages statiques accessible à travers plusieurs liens (merci Joomla :))
 
Discussions similaires
Haut