Impossible d'analyser un site comme googleBot (outils webmasters)

Nouveau WRInaute
Bonjour,

Je viens de finir un site qui tourne sous Wordpress http://www.cyril-deves.fr. Pendant la mise en place j'avais demandé à WP de ne pas être indexé par les moteurs de recherches (option vie privée). Je viens de retirer cette option, mais quand je tente d'analyser ce site dans les outils du Webmaster, il me dit que l'URL est bloquée par un robots.txt. Assez curieux car, après plusieurs manipulations j'ai finalement laissé un pauvre :
User-Agent: *
Allow: /

Rien à faire.
Quand je teste le robots dans Google outils WM, pas de soucis il me dit :
Autorisé
Identifié comme répertoire ; certains fichiers peuvent être soumis à des restrictions différentes.

Quand je teste le sitemap.xml j'ai aussi une erreur : Une erreur s'est produite lors de la tentative d'accès à votre sitemap. Veuillez vous assurer qu'il respecte nos consignes et qu'il est accessible à l'emplacement que vous avez indiqué, puis envoyez-le à nouveau.
URL à accès restreint par un fichier robots.txt !

Je n'y comprend rien !
J'ai tenté un autre theme : idem
J'ai changé ma page d'accueil : idem (évidement elle est en index + follow)

Pour info le site a eu un plug qui mettait le site hors ligne avec un message d'attente (http://www.elegantthemes.com/gallery/anticipate/) Evidemment le plug a été désactivé et même désintallé.

Je précise que ce n'est pas le premier site, même hébergement (OVH), même thèmes, mêmes plug....jamais eu ce soucis.

Si vous avez des pistes, je suis preneur.
Merci pour votre aide
 
WRInaute passionné
Bonsoir,

Pourquoi le contenu de ton robots.txt est le suivant : User-agent: *਀䐀椀猀愀氀氀漀眀㨀 ⼀眀瀀ⴀ愀搀洀椀渀⼀

5_legs
 
Nouveau WRInaute
"5_legs"]Bonsoir,

Pourquoi le contenu de ton robots.txt est le suivant : User-agent: *਀䐀椀猀愀氀氀漀眀㨀 ⼀眀瀀ⴀ愀搀洀椀渀⼀

5_legs[/quote]

Bonjour.....alors la 8O j'ai utilisé notepad....et sur le forum je vois pas ces caractères. Autre info...les choses marchent avec mon site si vend mets pas les www

Www.monsite.fr est bloque par un rebord.txt (même quand il n'y en a pas)
Monsite.fr semble marcher.....


Merci pour les Réponses.
 
WRInaute accro
1/ a priori tu ne souhaite rien bloquer donc met un fichier vide pour éviter les 404 et ça sera réglé.
2/ l'encodage est mauvais comme indiqué ci dessus.
 
Nouveau WRInaute
Bonjour,

Merci à tous pour vos réponses. Mais j'ai vraiment du mal à comprendre :
1. Pourquoi un fichier robots.txt d'un site A qui marche parfaitement déplacé via FTPExpert sur mon site B, ne fonctionne plus une fois posé.
2. En fait j'ai un fichier plus complet que celui posé ici. J'ai tenté de réduire les choses au maximum pour essayer de comprendre. Comment est-ce possible qu'avec notepad un fichier enregistré en TXT voit apparaître des symboles comme ça ?
3. Le plus curieux. Ce site : www.cyril-deves.fr ne veut pas marcher dans les outils du webmaster. Rien à faire, URL bloqués par un robots.txt (même quand il n'y en a pas!). Par contre quand je travaille sur http://cyril-deves.fr ca fonctionne (quelques messages d'avertissement quand même pour le sitemap).

Franchement, là je ne comprend pas du tout ce qui peut bien se passer.

Merci pour vos aides.
Aymeric
 
WRInaute accro
aymerix a dit:
avec notepad un fichier enregistré en TXT voit apparaître des symboles comme ça ?
Encodage mal choisi.
Sinon le développement même si c'est juste du HTML ça se fait avec des outil pro il y a quand même mieux que notepad pour travailler. Et, justement, la plupart des outils pro proposent de définir l'encodage utilisé pour un projet ce qui réduit ce genre de souci. Là je suppose (mais ça peut être autre chose) que Notepad enregistre ton fichier avec l'encodage de ton PC mais qui n'est pas celui utilisé par ton serveur.
 
Discussions similaires
Haut