Vous utilisez un navigateur non à jour ou ancien. Il ne peut pas afficher ce site ou d'autres sites correctement. Vous devez le mettre à jour ou utiliser un navigateur alternatif.
Tu veux autoriser n'importe quel visiteur humain et interdire tous les robots sauf un user-agent précis ? Ce n'est pas réalisable de manière fiable.
Le plus simple serait de passer par robots.txt. Là tu peux facilement interdire tous les robots sauf un. Ce n'est pas très fiable non plus puisque certains robots peuvent lire l'interdiction et passer outre.
La ligne vide est obligatoire entre deux séries de directives qui s'adressent à des robots différents. "Disallow:" (sans rien derrière) n'interdit rien et est compris par tous les robots alors que "Allow" n'est pas standard.
mais ce que je recherche à faire c'est bloquer un dossier (par ex "test") de mon site à tous les browser et autres robots spider ect... (users agents) sauf un seul que j'ai réalisé moi meme ("mon-user-agent"), avec un fichier .htaccess uniquement.
En quelque sorte les visiteurs ne peuvent consulter cette partie de ce site uniquement avec ce navigateur ("mon-user-agent"), et tous les autres user agent sont interdits d'access a ce dossier
pas un fichier robots.txt mais un truc super costaud et radical.