Bonjour à tous ! 
J'aimerais autoriser les bots à crawler mon site en entier sauf une section qui est /Profil/.
Est-ce que je dois faire comme cela :
	
	
	
		
Est-ce que le Disallow est OK ? Donc toutes les pages dans profil ne seront pas crawlé ?
Ex:
/Profil/membre1
/Profil/membre2
/Profil/membre3
/Profil/membre4
Merci à tous et une belle journée à vous !
Pascal
				
			J'aimerais autoriser les bots à crawler mon site en entier sauf une section qui est /Profil/.
Est-ce que je dois faire comme cela :
		Code:
	
	User-agent: *
Allow: /
Disallow: /Profil/
Sitemap: https://www.nomDeMonsite.com/sitemap-index.xml
	Est-ce que le Disallow est OK ? Donc toutes les pages dans profil ne seront pas crawlé ?
Ex:
/Profil/membre1
/Profil/membre2
/Profil/membre3
/Profil/membre4
Merci à tous et une belle journée à vous !
Pascal