Bonjour à tous !
J'aimerais autoriser les bots à crawler mon site en entier sauf une section qui est /Profil/.
Est-ce que je dois faire comme cela :
Est-ce que le Disallow est OK ? Donc toutes les pages dans profil ne seront pas crawlé ?
Ex:
/Profil/membre1
/Profil/membre2
/Profil/membre3
/Profil/membre4
Merci à tous et une belle journée à vous !
Pascal
J'aimerais autoriser les bots à crawler mon site en entier sauf une section qui est /Profil/.
Est-ce que je dois faire comme cela :
Code:
User-agent: *
Allow: /
Disallow: /Profil/
Sitemap: https://www.nomDeMonsite.com/sitemap-index.xml
Est-ce que le Disallow est OK ? Donc toutes les pages dans profil ne seront pas crawlé ?
Ex:
/Profil/membre1
/Profil/membre2
/Profil/membre3
/Profil/membre4
Merci à tous et une belle journée à vous !
Pascal