Robot.txt et url rewrting

WRInaute discret
Je souhaite placer un fichier robot.txt pour empecher certaines pages d'être indexées par GG notamment. Par contre les pages de mon site sont toutes à la racine, et donc pas de sous dossiers physiques pour renseigner dans le robot.txt. Par contre j'ai cré des sous dossiers fictifs lors de l'url rewriting, pensez vous que si j'indique ces sous dossiers, ça marchera?
 
WRInaute discret
bonjour ...
ben pour interdire l'accès a un fichier il suffit de donnée le nom du fichier dans le robot.txt

l'ennui, pour les dossier fictif, c'est que si toute vos pages passe par ce dossier fictif ... google risque de ne prendre plus aucune page passant par ce dossier fictif, a part si le dossier fictif des pages a ne pas référencer ne porte pas le même nom que le dossier fictif des pages a référencer ...

Plus d'info sur ces dossiers fictif pourrait apporter une réponse plus clair a votre question ...
 
WRInaute discret
oui voila, j'ai un dossier fictif qui correspond à un type bien particulier d'url, celles là même que je veux désindexer donc a priori ça serait bon

Sinon pour faire ça fichier par fichier la meta robot avec content="no index,nofollow" est efficace ?
 
Discussions similaires
Haut