Passage en https et problème robots.txt dans Google Search Console

WRInaute passionné
Bonjour,
J'ai un souci dans le Google Search Console, suite au passage en https.
Dans la nouvelle propriété en https il est indiqué un petit triangle orange indiquant un problème avec mon fichier robots.txt.
Ce fichier est le même pour les 2 propriétés, étant donné qu'il se situe à la racine de mon site.
Son contenu assez basique est le suivant :
Code:
user-agent: *
disallow:
Sitemap: https://www.detectimmobilier.com/sitemap.xml

Merci de votre aide
 
Dernière édition:
WRInaute passionné
il me semble qu'il faut quelque chose après le disallow.. au moins un répertoire à bloquer ou sinon / pour tout bloquer
 
Olivier Duffez (admin)
Membre du personnel
peut-être que Google a eu du mal à accéder à ce fichier ?

au passage, il ne sert à rien ce fichier tel que tu le donnes. autant qu'il soit vide !
le sitemap est à déclarer dans GSC, et la ligne vide pour disallow n'a pas vraiment de sens
 
WRInaute passionné
Exact il ne sert à rien tel quel, car je l'ai apuré des lignes en disallow et quand même modifié le sitemap en https
Ce qui n'explique pas pourquoi Google ne l’interprète pas.
 
WRInaute passionné
Dans la nouvelle propriété en https, au niveau du tableau de bord, il est indiqué un petit triangle orange indiquant un problème avec mon fichier robots.txt.
Comme j'ai très peu de pages https indexées en 4 jours, je crains que ce ne soit pénalisant.
 
WRInaute passionné
Le problème n'est pas résolu
Dois je plutôt supprimer ce fichier robots.txt au profit d'une balise
<META NAME="ROBOTS" CONTENT="INDEX"> ?
 
WRInaute passionné
au vu de ton fichier robots.txt oui tu peux le supprimer.

Attention cette balise ne remplace pas le fichier elle indique au robots qu'il peut indexer la page.

Tu déclares le sitemap dans GSC.
 
Discussions similaires
C
Réponses
4
Affichages
1K
christele2
C
Haut