Exclure certaines pages contenant un mot avec robots.txt

Nouveau WRInaute
Bonjour, peut on exclure certaines pages qui contiennent un mot spécifique grace au fichier robots.txt?
Et quelle est sa syntaxe?
Merci
 
Nouveau WRInaute
En fait google crawl les url avec marqué "catlogid" ce qui doit faire du duplicate content car ces meme page ont des url réecritent et ça me met des codes "erreur 500", ça doit pas etre bon pour le referencement je suppose, je ne sais pas quoi faire. Si quelqu'un peut m'aider.
Merci
 
WRInaute impliqué
Bah là, on est dans un problème de réécriture.

Si tu réécris correctement , y a pas de soucis d'UL en double.

A toi de le gérer via le htaccess ou en php direct.

Au pire, si tu n'y arrive pas, tu analyse l'url demandé. Si elle contient catlogid, tu ajoute un meta noinex.
 
Discussions similaires
Haut