Robots.txt Disabled ou noindex

Discussion dans 'Crawl et indexation Google, sitemaps' créé par bedford, 31 Janvier 2017.

  1. bedford
    bedford WRInaute discret
    Inscrit:
    3 Août 2005
    Messages:
    97
    J'aime reçus:
    0
    Bonjour,

    j'ai quelques pages de mon e-commerce que je n'ai aucune raison d'indexer: le panier, la page de login, d'inscription, etc.

    Je les ai en disabled dans le robots.txt afin d'empêcher google de les parcourir et donc indexer. Est-ce que je ne devrais par plutôt les mettre en noindex dans la page ? Quelle est la différence réelle entre les deux ?

    Merci d'avance
     
  2. bedford
    bedford WRInaute discret
    Inscrit:
    3 Août 2005
    Messages:
    97
    J'aime reçus:
    0
    Merci,

    je dois donc laisser dans le robots.txt car elles n'ont aucun intérêt à être crawlée.
     
Chargement...
Similar Threads - Robots Disabled noindex Forum Date
Robots : n'autoriser que les 4 ou 5 moteurs de recherche principaux Crawl et indexation Google, sitemaps 15 Janvier 2021
erreurs robots.txt Crawl et indexation Google, sitemaps 23 Décembre 2020
Google me dit que ma page est bien indexée mais bloquée par robots.txt Crawl et indexation Google, sitemaps 25 Novembre 2020
Faut-il déclarer le sitemap dans le robots.txt ou search console ? Crawl et indexation Google, sitemaps 17 Octobre 2020
lien variable à bloquer sur robots Développement d'un site Web ou d'une appli mobile 3 Mai 2020
Urls orphelines crawlées par Google + Robots.txt ? Crawl et indexation Google, sitemaps 3 Avril 2020
Robots.txt du site Kayak Débuter en référencement 11 Mars 2020
Search Console Indexée malgré le blocage dans robots.txt Crawl et indexation Google, sitemaps 26 Février 2020
Search Console Prestashop | Robot.txt bloque des URL mais Outil de test du fichier robots.txt l'Authorise... Crawl et indexation Google, sitemaps 21 Novembre 2019
Search Console Images bloquées ... malgré absence de robots.txt Crawl et indexation Google, sitemaps 31 Octobre 2019