Search Console un fichier robots.txt pour chaque protocole

WRInaute discret
Bonjour,

Je post ici car cela me semble l'endroit le plus logique.

Google, et probablement les autres moteurs aussi, crawl mon robots.txt en http et https. La requête en http est redirigée (code 301) sur la version https, ce qui a le don de m'agacer d'une part et est peut-être problématique d'autre part (là je ne sais pas).

il est indiqué "il faut un fichier robots.txt pour chaque protocole"
Mais je n'ai aucune idée de la façon dont-il faut procéder. La racine de mon site étant la même dans les deux cas et tout le site est maintenant en https.

Je voudrais pouvoir retourner un code 410 pour le robots.txt en http, mais je ne suis pas sûr de la façon dont il faut procéder (dans le htaccess ?) et si cela est recommandé ou pas. Dans la mesure où tout mon site est en https, je ne vois pas l'intérêt de laisser les bots chercher un fichier robots.txt en protocole http.

Merci pour vos conseils éclairés
 
WRInaute accro
PHP $_SERVER['SERVER_PROTOCOL'] + URL rewrite
Ou juste .htaccess avec (pas testé):

Code:
RewriteCond %{HTTPS} !=on
RewriteRule ^robots.txt$ - [R=410,L]
 
Olivier Duffez (admin)
Membre du personnel
Si tout le site en http a migré, c'est normal que le robots.txt du HTTP soit lui aussi redirigé vers sa version en HTTPS
 
Discussions similaires
Haut