🧟‍♂️️ Vérifiez vos pages zombies SEO sur votre site !!! 🧟‍♀️️

Elles plombent votre référencement et ne vous rapportent rien...

Je le détaille dans mon tuto Pages Zombies

Portrait Olivier Duffez

Olivier Duffez

Créateur de WebRankInfo,
consultant en référencement

Tester un fichier robots.txt avant de le mettre en ligne

Ce tuto montre une astuce permettant de tester n’importe quel fichier robots.txt sans même avoir besoin de le mettre en ligne ! C’est utile pour vérifier que le fichier robots.txt est bien fait pour le référencement de votre site.

Test fichier robots.txt

Tuto sur le testeur de fichier robots.txt dans Google Search Console

Je ne vais pas décrire le fonctionnement complet du fichier robots.txt, si besoin lisez cet article.

Et pour + d’infos sur le robots.txt assistez à mon webinar gratuit !

En résumé, par défaut les robots des moteurs de recherche s’autorisent à crawler (« explorer ») toutes les URL. Si vous souhaitez leur interdire certaines pages ou rubriques de votre site, il faut ajouter des directives dans le fichier robots.txt.

La syntaxe est définie sur robotstxt.org mais sachez que certains moteurs prennent en compte des instructions spécifiques. Par exemple Googlebot tient compte des caractères * et $ ainsi que de la directive Allow, et de son côté Bing tient compte de Crawl-delay. Il ne s’agit que de quelques exemples non exhaustifs.

Une erreur dans un fichier robots.txt peut avoir des conséquences importantes sur votre référencement. Vous ne risquez pas de faire désindexer des pages (pour cela il faut la balise meta robots noindex), mais de bloquer le crawl des nouvelles pages.

Pour ne pas vous tromper, le mieux est de faire des tests !

Pour ça, je vous recommande de suivre mon tuto :

Retrouvez ce tuto de test du fichier robots.txt sur YouTube

Explications :

  • Allez dans votre compte Search Console (peu importe lequel, votre site ou un autre)
  • Dans la rubrique Exploration, cliquez sur « Outil de test du fichier robots.txt » (ou bien allez sur https://www.google.com/webmasters/tools/robots-testing-tool?hl=fr)
  • Google indique le contenu du fichier robots.txt tel qu’il l’a vu la dernière fois (ou alors rien du tout si vous n’en avez pas)
  • Si jamais vous avez un fichier robots.txt non vide, sélectionnez tout et supprimez
  • Copiez-collez le contenu du fichier robots.txt à tester (ça peut être votre fichier à tester, ou celui d’un client, ou d’un concurrent)
  • Tapez ensuite l’URI de la page à tester (c’est-à-dire la partie de l’URL qui suit votre nom de domaine, sans mettre le / de la racine qui est déjà inclus)
  • Cliquez sur Tester

Google vous indique le résultat :

  • Si l’URL est interdite au crawl, Google affiche « Bloquée » et surligne en rouge la ligne qui bloque le crawl
  • Sinon, Google affiche « Autorisée ». Si jamais c’est en raison d’une ligne particulière, elle est surlignée en vert.

Exemple d’URL bloquée :

URL bloquée au crawl

Exemple d’URL bloquée au crawl par une directive Disallow

Exemple d’URL autorisée :

URL autorisée au crawl

Dans cet exemple, l’URL est autorisée en crawl de façon explicite par une directive Allow

Rappelez-vous qu’il faut tester aussi pour d’autres robots que ceux de Google (Bingbot et les autres).

Une fois que vous avez validé que votre fichier robots.txt est correct, n’oubliez pas de l’uploader sur votre serveur !

Si jamais votre fichier robots.txt a changé et que vous souhaitez que Google vienne le crawler rapidement, cliquez sur Envoyer :

Envoyer le fichier robots.txt pour nouveau crawl

Puis, une fois que vous avez bien vérifié que votre fichier en ligne est OK, cliquez à nouveau sur Envoyer afin que Googlebot vienne le consulter et en tenir compte au plus vite :

Envoyer le fichier robots.txt pour nouveau crawl

En préparant ce dossier et ce tutoriel, j’ai remarqué que Google tient compte de la directive « Disalow » (écrite avec un seul L)…

Si vous n’avez pas encore de compte Search Console, démarrez par ici

Des questions ? Posez-les en commentaires !

Cet article vous a-t-il plu ?

Note : 5.0 (2 votes)
Cliquez pour voter !

Laisser un commentaire

Remarques :

  • Si vous souhaitez poser une question ou détailler un problème technique, il ne faut pas utiliser le formulaire ci-dessous qui est réservé aux avis. Posez votre question directement dans le forum Gmail de WebRankInfo. L'inscription est gratuite et immédiate.

  • En postant un avis, vous acceptez les CGU du site WebRankInfo. Si votre avis ne respecte pas ces règles, il pourra être refusé. Si vous indiquez votre adresse email, vous serez informé dès que votre avis aura été validé (ou refusé...) ; votre adresse ne sera pas utilisée pour vous envoyer des mailings et ne sera pas revendue ou cédée à des tiers.

4 commentaires

Haydi

bonjour, je veux ajouter une nouvelle page web au Site maps pour suivre son référencement mais j’arrive pas à ajouter l’URL à la liste des URL que j’avais

Répondre
Olivier Duffez

@ Haydi : il faut utiliser un outil qui génère automatiquement le sitemap, ça ne doit pas se gérer manuellement…

Répondre
Fabienvitrier51

Bonjour ,
j’ai un fichier bloqué : Disallow: /app/
est ce grave ?? est ce que je peu y remedier ?

Salutations Fabien

Répondre
Olivier Duffez

si /app/ a besoin d’être bloqué ce n’est pas gênant, sinon il suffit de retirer la ligne (pour éditer ce fichier, demandez à celui qui vous a fait le site)

Répondre