1. ‍Vérifiez vos pages zombies SEO sur votre site !!! Elles plombent votre référencement et ne vous rapportent rien... Je le détaille dans mon tuto Pages Zombies SEO
    Rejeter la notice

La directive X-Robots-Tag

Discussion dans 'Référencement Google' créé par WebRankInfo, 13 Décembre 2007.

  1. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 384
    J'aime reçus:
    175
  2. ranks
    ranks Nouveau WRInaute
    Inscrit:
    20 Novembre 2007
    Messages:
    12
    J'aime reçus:
    0
    Vu que cette fonctionnalité existait déjà sous la balise Meta, le seul réel intérêt que je vois est de demander à ne pas indexer une image. (dans ce cas, ça serait intéressant...)

    A priori, cela fonctionne avec tous les types de documents ?
     
  3. dorian53
    dorian53 WRInaute passionné
    Inscrit:
    10 Avril 2005
    Messages:
    2 145
    J'aime reçus:
    1
    De mémoire on peut cacher cette information :

    Mais j'oublié comment...
     
  4. phpmikedu83
    phpmikedu83 WRInaute passionné
    Inscrit:
    6 Août 2005
    Messages:
    1 183
    J'aime reçus:
    0
    J'ai juste une petite question à ce sujet du coup...

    Comment fait-on pour ajouter cet entête à l'aide d'un .htaccess?

    J'ai cherché, mais en vain ;-)
     
  5. phpmikedu83
    phpmikedu83 WRInaute passionné
    Inscrit:
    6 Août 2005
    Messages:
    1 183
    J'aime reçus:
    0
  6. Victor BRITO
    Victor BRITO WRInaute occasionnel
    Inscrit:
    21 Décembre 2006
    Messages:
    347
    J'aime reçus:
    0
    On peut aussi essayer ce code PHP, si l'on ne peut (ou veut) bidouiller Apache et le .htaccess :
    Code:
    <?php header ('X-Robots-Tag: noindex,nofollow,noarchive'); ?>
     
  7. phpmikedu83
    phpmikedu83 WRInaute passionné
    Inscrit:
    6 Août 2005
    Messages:
    1 183
    J'aime reçus:
    0
    Ouai, mais si tu veux agir sur tous les PDF de ton site, t'as plus vite fait de passer par Apache ;-)
     
  8. Victor BRITO
    Victor BRITO WRInaute occasionnel
    Inscrit:
    21 Décembre 2006
    Messages:
    347
    J'aime reçus:
    0
    Rien ne t'empêche de créer un script PHP se chargeant de tes PDF :
    Code:
    <?php 
    if (isset ($_GET['nom_pdf']) && preg_match ("/^[-_0-9a-z]+\.pdf$/i", $_GET['nom_pdf']))
    {
      header ('Content-Type: application/pdf');
      header ('X-Robots-Tag: noindex,nofollow,noarchive');
      readfile ($_GET['nom_pdf']);
    }
    ?>
     
  9. broidsy
    broidsy Nouveau WRInaute
    Inscrit:
    13 Octobre 2005
    Messages:
    13
    J'aime reçus:
    0
    Ce qui donne dans un fichier .htaccess (valable dans les sections <VirtualHost>, <Directory>, <Location> et <Files>)

    Code:
    Header append X-Robots-Tag "noarchive,noindex"
     
  10. Eric 2A
    Eric 2A WRInaute discret
    Inscrit:
    26 Février 2006
    Messages:
    176
    J'aime reçus:
    0
    Salut,

    Je me demande si Google et Yahoo sont toujours les seuls à supporter cette directive aujourd'hui.

    Et vous, l'utilisez-vous ?
     
Chargement...
Similar Threads - directive Robots Tag Forum Date
Est-ce que la CNIL et la Directive Européeenne permettent celà ? Droit du web (juridique, fiscalité...) 15 Août 2015
Régies pub avec cookies compatibles CNIL et directive Européenne Monétisation d'un site web 13 Août 2015
Nouvelles directives européennes le ecommerce en PERIL !! e-commerce 31 Mars 2011
Directives .htaccess Administration d'un site Web 8 Mars 2010
Plusieurs directives RewriteBase et DirectoryIndex dans un .htaccess ? URL Rewriting et .htaccess 29 Octobre 2009
Directivepub.com Monétisation d'un site web 31 Juillet 2009
[Résolu] - Site ne s'affichant pas avec la directive site: Crawl et indexation Google, sitemaps 30 Juillet 2009
Indexée malgré le blocage par le fichier robots.txt Débuter en référencement 5 Décembre 2018
Problèmes d'indexation à cause de ressources bloquées (robots.xt) Crawl et indexation Google, sitemaps 22 Novembre 2018
Bloquer une section dans mon fichier robots.txt Débuter en référencement 9 Novembre 2018
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice