Search Console Images bloquées ... malgré absence de robots.txt

Nouveau WRInaute
Bonjour

J'ai des images contenues dans /images qui ne sont pas indexées car " bloquée par le fichier robots.txt".
J'ai tenté plusieurs configurations du fichier robots.txt sans succès, et au final, j'ai testé en supprimant le fichier robots.txt.

J'ai toujours la même erreur " bloquée par le fichier robots.txt".

Le robots.txt est bien stockée dans www/

Auriez-vous une idée de ce comportement étrange ?

Merci
Dionee
 
WRInaute accro
Le fichier robots.txt est un fichier sensible car en quelque lignes de code il peut redéfinir l'indexation d'un site, Google est donc prudent avec les mises à jour qui dépendantes de ce fichier. En essayant plusieurs configurations vous n'arrangerez rien.
 
Nouveau WRInaute
Bonjour

J'ai tenté plusieurs configurations car mon URL est constamment bloquée dans la Search Console.
Mon fichier au final contient :

User-agent: *
#Disallow: /administrator/
#Disallow: /bin/
#Disallow: /cache/
#Disallow: /cli/
#Disallow: /components/
#Disallow: /includes/
#Disallow: /installation/
#Disallow: /language/
#Disallow: /layouts/
#Disallow: /libraries/
#Disallow: /logs/
#Disallow: /modules/
#Disallow: /plugins/
#Disallow: /tmp/

Mais le test dans la Console :
http://lantredehestia.fr/images/com...lon-4F2EA1BAE-2F07-A5DC-97CD-B90DB9C0761C.jpg

donne pour résultat :
Explorée avec Googlebot pour smartphone
Exploration autorisée ? Non : bloquée par le fichier robots.txt
Récupération de page Échec : Bloquée par le fichier robots.txt

Dans l'outils des test de robots.txt, GoogleBot-Mobile passe bien.

Je ne comprends pas ce comportement contradictoire. est-ce que le pb pourrait venir du .htacess ?
 
WRInaute accro
htaccess ? Je pencherais plus pour un bug sur un module et ce meme module est ok (ou absent) en version mobile, pourquoi ne pas mettre un fichier robots.txt a minima:

User-agent: *
Disallow:
 
Nouveau WRInaute
Bonjour
C'était une piste...
Et votre proposition n'a malheureusement pas changé le résultat ...

Cependant, en grattant ci et là, j'ai trouvé qq infos qui me laissent perplexes.
La SC m'indique donc que mon URL est bloquée par robots.txt.

Si je la teste dans l'outil "Tester le blocage par robots.txt", l'URL est AUTORISE

Il y a 2 résultats contradictoires pour la même URL -_-'
Comment les interpréter ?
 
Discussions similaires
Haut