Robots.txt : limitations en nombre de règles ?

WRInaute discret
Bonjour...

Je viens de creer mes pages statiques en pages dynamique... je fais des redirections pour avoir des pages en htm mais voila un petit probleme...
J'essaye de rester correct en n'effacant pas de pages brusquement mais en les effacant de manieres progressive avec des rules htacces ou avec des metas noindex, nofollow...

Mais voila qu'apres le passage statique en dynamique je dois annuler plus de 600 pages... impossible d'utiliser un wildcard avec htaccess...

Questions: - Est ce que je peut faire 600 rules dans htaccess? ou cela risque de ralentir la vitesse de chargement des pages?
-Est que je peux faire ca avec 600 rules dand robots.txt ou est-ce que je risque d'etre penaliser par les moteurs?

Merci
 
WRInaute accro
Si les fichiers ne sont pas dans un même répertoire, mettre les règles dans des htaccess dans chaque répertoire.
Sinon, le robot ne fonctionne que pour les moteurs, mais souvent il faut beaucoup de temps pour qu'ils soient supprimés dans les moteurs et donc si un "visiteur" clique sur un lien supprimé, il faut qu'il tombe sur la nouvelle page -> donc plutôt htaccess que robots.txt
 
WRInaute discret
J'ai deja un htaccess au root du site...

Ne risque-t-il pas d'y avoir des conflits si une page repond au htacces du root et du fichier?
 
Discussions similaires
Haut