Bonsoir,
j'ai quelques problemes de pages assimilées comme doublon par google. Le probleme provient de ma gestion url qui accepte autant l'url : site.com/xxx.html que site/category/xxx.html .
Du coup, Google remarque que la page XXX se doublonne à plusieurs endroits.
Je souhaiterais donc savoir si, via Robots.txt, je pouvais, moyen radical s'il en est, appliquer une règle visant à exclure toute page sauf une liste d'url que je préciserais ?? (avec un export XML de mes pages, je n'aurais qu'à copier coller la liste des url)
Pensez vous que c'est possible avec Robots.txt et si oui auriez vous l'ébauche d'un code ?! ;-))
Merci d'avance !
j'ai quelques problemes de pages assimilées comme doublon par google. Le probleme provient de ma gestion url qui accepte autant l'url : site.com/xxx.html que site/category/xxx.html .
Du coup, Google remarque que la page XXX se doublonne à plusieurs endroits.
Je souhaiterais donc savoir si, via Robots.txt, je pouvais, moyen radical s'il en est, appliquer une règle visant à exclure toute page sauf une liste d'url que je préciserais ?? (avec un export XML de mes pages, je n'aurais qu'à copier coller la liste des url)
Pensez vous que c'est possible avec Robots.txt et si oui auriez vous l'ébauche d'un code ?! ;-))
Merci d'avance !