Interdire l'accès de GoogleBot à une page

Discussion dans 'Crawl et indexation Google, sitemaps' créé par edi-b2b, 23 Juillet 2011.

  1. edi-b2b
    edi-b2b Nouveau WRInaute
    Inscrit:
    27 Février 2011
    Messages:
    2
    J'aime reçus:
    0
    Bonjour,
    Je souhaite interdire l'accès de plusieurs pages (un panier par exemple, formulaire d'authentification, etc...) à Google.
    J'ai renseigné correctement, je pense, le robots.txt.
    Sur "Webmaster Central" je vois toujours des lignes d'erreur "URL à accès restreint par un fichier robots.txt".
    C'est une peu le chien qui se mord la queue...
    Qu'ai-je oublié ou mal fait SVP ?
    Merci.
     
  2. sr
    sr WRInaute passionné
    Inscrit:
    15 Mai 2003
    Messages:
    1 149
    J'aime reçus:
    0
    Je ne pense pas que ces "erreurs" soient gênantes, mais sinon, tu pouvais juste mettre des noindex nofollow sur ces pages que tu ne souhaite pas faire indexer.
     
  3. edi-b2b
    edi-b2b Nouveau WRInaute
    Inscrit:
    27 Février 2011
    Messages:
    2
    J'aime reçus:
    0
    Ok super,
    Si ces "Erreurs d'exploration" n'ont pas d'incidence, parfait.
    Je vais tout de même mettre des nofollow, effectivement, on ne sait jamais.
    Merci ;-)
     
  4. mcrystal
    mcrystal Nouveau WRInaute
    Inscrit:
    13 Juin 2011
    Messages:
    1
    J'aime reçus:
    0
    À quoi les erreurs liées aux URL restreintes par un fichier robots.txt correspondent-elles ?

    Google n'a pas pu explorer l'URL en raison d'une restriction dans le fichier robots.txt. Ce problème peut avoir plusieurs causes. Par exemple, votre fichier robots.txt peut interdire totalement l'accès de Googlebot à votre site ; il peut interdire l'accès au répertoire dans lequel se trouve cette URL ou interdire l'accès à cette URL en particulier. Bien souvent, il ne s'agit pas d'une erreur. Vous pouvez avoir configuré le fichier robots.txt de manière à nous empêcher d'explorer cette URL. Dans ce cas, il n'y a pas lieu d'intervenir. Nous continuerons de respecter les paramètres du fichier robots.txt pour ce fichier.

    Lorsqu'une URL comporte une redirection vers une URL bloquée par un fichier robots.txt, la première URL est également signalée comme bloquée par ce fichier et cela, même si l'outil d'analyse la considère comme Autorisé.
     
Chargement...
Similar Threads - Interdire accès GoogleBot Forum Date
Interdire accès sauf pour . Googlebot URL Rewriting et .htaccess 22 Janvier 2014
Interdire l'accès au un site aux concurrents Droit du web (juridique, fiscalité...) 30 Janvier 2017
interdire l'accés de certains pays avec le ht.access URL Rewriting et .htaccess 15 Mai 2016
Comment interdire TOUS les moteurs de recherche en utilisant le htaccess? URL Rewriting et .htaccess 7 Mai 2013
Interdire l'acces au fichier Robots Débuter en référencement 13 Février 2012
interdire l'accès à une page php Le café de WebRankInfo 7 Octobre 2011
Interdire l'accès direct a un dossier via un navigateur ? Administration d'un site Web 16 Février 2011
Interdire l'acces à des Urls commençant par... Débuter en référencement 9 Janvier 2011
HTACCESS : Interdire les bots dont l'URL contient une chaîne spécifiée URL Rewriting et .htaccess 13 Décembre 2010
Interdire l'accès a certains dossiers, fichiers avec un .htaccess et. URL Rewriting et .htaccess 16 Octobre 2010
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice