Gestion de robots.txt des pages créées en htaccess

WRInaute discret
Bonjour,

Je suis en train de prevoir les etapes de mon robots.txt pour les mois a venir et me pose une question:
Est ce que robots.txt peut gerer des pages qui sont creer par htaccess (donc fantastiques)?

Ex1: Disallow: /paris/11/hotels/paris-bastille-all.htm

Ex2: Disallow: /paris/11/hotels/paris-bastille-all.htm?area_name=paros&ar_name=paris

Merci
 
WRInaute discret
Genial ;)

Et que ce passe t il si les pages n'existent vraiment pas.

Par exemple j'efface la page www.com/hotels.htm (qui est dans la base de Google) puis je met dans le robots:
Disallow: hotels.htm

C'est toujours bon?
 
Discussions similaires
Haut