Impossible d'analyser un site comme googleBot (outils webmasters)

Discussion dans 'Crawl et indexation Google, sitemaps' créé par aymerix, 17 Mai 2012.

  1. aymerix
    aymerix Nouveau WRInaute
    Inscrit:
    12 Avril 2012
    Messages:
    3
    J'aime reçus:
    0
    Bonjour,

    Je viens de finir un site qui tourne sous Wordpress http://www.cyril-deves.fr. Pendant la mise en place j'avais demandé à WP de ne pas être indexé par les moteurs de recherches (option vie privée). Je viens de retirer cette option, mais quand je tente d'analyser ce site dans les outils du Webmaster, il me dit que l'URL est bloquée par un robots.txt. Assez curieux car, après plusieurs manipulations j'ai finalement laissé un pauvre :
    User-Agent: *
    Allow: /

    Rien à faire.
    Quand je teste le robots dans Google outils WM, pas de soucis il me dit :
    Autorisé
    Identifié comme répertoire ; certains fichiers peuvent être soumis à des restrictions différentes.

    Quand je teste le sitemap.xml j'ai aussi une erreur : Une erreur s'est produite lors de la tentative d'accès à votre sitemap. Veuillez vous assurer qu'il respecte nos consignes et qu'il est accessible à l'emplacement que vous avez indiqué, puis envoyez-le à nouveau.
    URL à accès restreint par un fichier robots.txt !

    Je n'y comprend rien !
    J'ai tenté un autre theme : idem
    J'ai changé ma page d'accueil : idem (évidement elle est en index + follow)

    Pour info le site a eu un plug qui mettait le site hors ligne avec un message d'attente (http://www.elegantthemes.com/gallery/anticipate/) Evidemment le plug a été désactivé et même désintallé.

    Je précise que ce n'est pas le premier site, même hébergement (OVH), même thèmes, mêmes plug....jamais eu ce soucis.

    Si vous avez des pistes, je suis preneur.
    Merci pour votre aide
     
  2. 5_legs
    5_legs WRInaute passionné
    Inscrit:
    30 Avril 2006
    Messages:
    1 550
    J'aime reçus:
    0
    Bonsoir,

    Pourquoi le contenu de ton robots.txt est le suivant : User-agent: *਀䐀椀猀愀氀氀漀眀㨀 ⼀眀瀀ⴀ愀搀洀椀渀⼀

    5_legs
     
  3. aymerix
    aymerix Nouveau WRInaute
    Inscrit:
    12 Avril 2012
    Messages:
    3
    J'aime reçus:
    0
    "5_legs"]Bonsoir,

    Pourquoi le contenu de ton robots.txt est le suivant : User-agent: *਀䐀椀猀愀氀氀漀眀㨀 ⼀眀瀀ⴀ愀搀洀椀渀⼀

    5_legs[/quote]

    Bonjour.....alors la 8O j'ai utilisé notepad....et sur le forum je vois pas ces caractères. Autre info...les choses marchent avec mon site si vend mets pas les www

    Www.monsite.fr est bloque par un rebord.txt (même quand il n'y en a pas)
    Monsite.fr semble marcher.....


    Merci pour les Réponses.
     
  4. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 192
    J'aime reçus:
    1
    1/ a priori tu ne souhaite rien bloquer donc met un fichier vide pour éviter les 404 et ça sera réglé.
    2/ l'encodage est mauvais comme indiqué ci dessus.
     
  5. aymerix
    aymerix Nouveau WRInaute
    Inscrit:
    12 Avril 2012
    Messages:
    3
    J'aime reçus:
    0
    Bonjour,

    Merci à tous pour vos réponses. Mais j'ai vraiment du mal à comprendre :
    1. Pourquoi un fichier robots.txt d'un site A qui marche parfaitement déplacé via FTPExpert sur mon site B, ne fonctionne plus une fois posé.
    2. En fait j'ai un fichier plus complet que celui posé ici. J'ai tenté de réduire les choses au maximum pour essayer de comprendre. Comment est-ce possible qu'avec notepad un fichier enregistré en TXT voit apparaître des symboles comme ça ?
    3. Le plus curieux. Ce site : www.cyril-deves.fr ne veut pas marcher dans les outils du webmaster. Rien à faire, URL bloqués par un robots.txt (même quand il n'y en a pas!). Par contre quand je travaille sur http://cyril-deves.fr ca fonctionne (quelques messages d'avertissement quand même pour le sitemap).

    Franchement, là je ne comprend pas du tout ce qui peut bien se passer.

    Merci pour vos aides.
    Aymeric
     
  6. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 192
    J'aime reçus:
    1
    Encodage mal choisi.
    Sinon le développement même si c'est juste du HTML ça se fait avec des outil pro il y a quand même mieux que notepad pour travailler. Et, justement, la plupart des outils pro proposent de définir l'encodage utilisé pour un projet ce qui réduit ce genre de souci. Là je suppose (mais ça peut être autre chose) que Notepad enregistre ton fichier avec l'encodage de ton PC mais qui n'est pas celui utilisé par ton serveur.
     
Chargement...
Similar Threads - Impossible analyser googleBot Forum Date
Search Console Sitemaps non indéxés ""Impossible de recuperer le sitemap" Crawl et indexation Google, sitemaps 23 Juillet 2020
Impossible d'ouvrir page FB Facebook 22 Mai 2020
Avis sur le Blog de l'Impossible Dictionnaire Demandes d'avis et de conseils sur vos sites 16 Septembre 2019
email (seulement) vers hotmail impossible alors que tout est au vert Développement d'un site Web ou d'une appli mobile 9 Septembre 2019
WordPress Impossible d'indexer un site pour la première fois Problèmes de référencement spécifiques à vos sites 4 Septembre 2019
Webmaster tools - Impossible de lire le sitemap Crawl et indexation Google, sitemaps 31 Juillet 2019
Pages impossibles à supprimer Problèmes de référencement spécifiques à vos sites 23 Avril 2019
Filtrage des pubs AdSense impossible AdSense 11 Avril 2019
Définition du domaine favori impossible sur GSC Débuter en référencement 30 Juillet 2018
Ajout d'amis dans des groupes Facebook impossible Facebook 9 Juillet 2018
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice