Robots.txt + sous domaine disallow

Nouveau WRInaute
Bonjour

Par avance je m'excuse si ma question peut paraître stupide ou si elle a déjà été résolue, j'ai cherché mais je n'ai rien trouvé !

Voilà j'ai un site : www.site.com (./)

Et un sous domaine truc.site.com (./Truc)

Le sous domaine est à la racine du site dans /Truc

Si dans le robots.txt du site je mets : Disallow: /Truc/ et que dans celui du sous domaine je mets : Allow: /

Est-ce que les robots tel que Google font la différence et comprenne bien qu'ils peuvent référencer mon sous domaine ?

Mon soucis est que j'ai parfois des 404 car google va quand même sur www.site.com/Truc/machin.html en même temps qu'il va sur truc.site.com/machin.html

J'ai déjà joué avec le canonical et un peu avec les redirect permanent mais j'aimerai savoir si je peux appliquer un disallow dans ma racine sans affecter le allow dans le sous domaine en question ?

(pouah c'est du chinois, j'espère qu'on s'est compris !)

Merci 100 fois par avance ! Cdt.
 
Nouveau WRInaute
Je suis sur un serveur pour notamment du CRON et autre mais j'ai très peu de connaissances en linux et prog serv !

Le but vous l'aurez compris est de bloquer /truc sans bloquer truc.site.com !
 
WRInaute occasionnel
Dans ce cas, dans le vhost du site (si tu utilise un serveur Apache2), il faut ajouter quelque chose du genre :
Code:
<Directory "/chemin/vers/truc/">
order deny,allow
deny from all
</Directory>
 
Discussions similaires
Haut