La directive X-Robots-Tag

Discussion dans 'Référencement Google' créé par WebRankInfo, 13 Décembre 2007.

  1. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 050
    J'aime reçus:
    326
  2. ranks
    ranks Nouveau WRInaute
    Inscrit:
    20 Novembre 2007
    Messages:
    12
    J'aime reçus:
    0
    Vu que cette fonctionnalité existait déjà sous la balise Meta, le seul réel intérêt que je vois est de demander à ne pas indexer une image. (dans ce cas, ça serait intéressant...)

    A priori, cela fonctionne avec tous les types de documents ?
     
  3. dorian53
    dorian53 WRInaute passionné
    Inscrit:
    10 Avril 2005
    Messages:
    1 909
    J'aime reçus:
    1
    De mémoire on peut cacher cette information :

    Mais j'oublié comment...
     
  4. phpmikedu83
    phpmikedu83 WRInaute passionné
    Inscrit:
    6 Août 2005
    Messages:
    1 029
    J'aime reçus:
    0
    J'ai juste une petite question à ce sujet du coup...

    Comment fait-on pour ajouter cet entête à l'aide d'un .htaccess?

    J'ai cherché, mais en vain ;-)
     
  5. phpmikedu83
    phpmikedu83 WRInaute passionné
    Inscrit:
    6 Août 2005
    Messages:
    1 029
    J'aime reçus:
    0
  6. Victor BRITO
    Victor BRITO WRInaute occasionnel
    Inscrit:
    21 Décembre 2006
    Messages:
    338
    J'aime reçus:
    0
    On peut aussi essayer ce code PHP, si l'on ne peut (ou veut) bidouiller Apache et le .htaccess :
    Code:
    <?php header ('X-Robots-Tag: noindex,nofollow,noarchive'); ?>
     
  7. phpmikedu83
    phpmikedu83 WRInaute passionné
    Inscrit:
    6 Août 2005
    Messages:
    1 029
    J'aime reçus:
    0
    Ouai, mais si tu veux agir sur tous les PDF de ton site, t'as plus vite fait de passer par Apache ;-)
     
  8. Victor BRITO
    Victor BRITO WRInaute occasionnel
    Inscrit:
    21 Décembre 2006
    Messages:
    338
    J'aime reçus:
    0
    Rien ne t'empêche de créer un script PHP se chargeant de tes PDF :
    Code:
    <?php 
    if (isset ($_GET['nom_pdf']) && preg_match ("/^[-_0-9a-z]+\.pdf$/i", $_GET['nom_pdf']))
    {
      header ('Content-Type: application/pdf');
      header ('X-Robots-Tag: noindex,nofollow,noarchive');
      readfile ($_GET['nom_pdf']);
    }
    ?>
     
  9. broidsy
    broidsy Nouveau WRInaute
    Inscrit:
    13 Octobre 2005
    Messages:
    11
    J'aime reçus:
    0
    Ce qui donne dans un fichier .htaccess (valable dans les sections <VirtualHost>, <Directory>, <Location> et <Files>)

    Code:
    Header append X-Robots-Tag "noarchive,noindex"
     
  10. Eric 2A
    Eric 2A WRInaute discret
    Inscrit:
    26 Février 2006
    Messages:
    155
    J'aime reçus:
    0
    Salut,

    Je me demande si Google et Yahoo sont toujours les seuls à supporter cette directive aujourd'hui.

    Et vous, l'utilisez-vous ?
     
Chargement...
Similar Threads - directive Robots Tag Forum Date
Gestion de cookies problème directives CNIL. Administration d'un site Web Vendredi à 13:09
Nouvelles directives de la CNIL (cookies et traceurs) Droit du web (juridique, fiscalité...) 2 Septembre 2019
Est-ce que la CNIL et la Directive Européeenne permettent celà ? Droit du web (juridique, fiscalité...) 15 Août 2015
Régies pub avec cookies compatibles CNIL et directive Européenne Monétisation d'un site web 13 Août 2015
Nouvelles directives européennes le ecommerce en PERIL !! e-commerce 31 Mars 2011
Directives .htaccess Administration d'un site Web 8 Mars 2010
Plusieurs directives RewriteBase et DirectoryIndex dans un .htaccess ? URL Rewriting et .htaccess 29 Octobre 2009
[Résolu] - Site ne s'affichant pas avec la directive site: Crawl et indexation Google, sitemaps 30 Juillet 2009
Search Console Images bloquées ... malgré absence de robots.txt Crawl et indexation Google, sitemaps 31 Octobre 2019
Aide sur le format de mon fichier robots.txt Crawl et indexation Google, sitemaps 25 Octobre 2019
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice