Robots.txt : Exclure toute page sauf "telles pages&quot

WRInaute discret
Bonsoir,
j'ai quelques problemes de pages assimilées comme doublon par google. Le probleme provient de ma gestion url qui accepte autant l'url : site.com/xxx.html que site/category/xxx.html .

Du coup, Google remarque que la page XXX se doublonne à plusieurs endroits.

Je souhaiterais donc savoir si, via Robots.txt, je pouvais, moyen radical s'il en est, appliquer une règle visant à exclure toute page sauf une liste d'url que je préciserais ?? (avec un export XML de mes pages, je n'aurais qu'à copier coller la liste des url)
Pensez vous que c'est possible avec Robots.txt et si oui auriez vous l'ébauche d'un code ?! ;-))

Merci d'avance !
 
WRInaute occasionnel
Bonjour,

Tu peux exclure tout un répertoire :

User-agent: *
Disallow: /dossier/

Tu peux aussi utiliser des redirections de type 301.

Bon courage ;)
 
Discussions similaires
Haut