Nouveau WRInaute
Bonjour à tous,
Je suis aujourd'hui en charge de réaliser un audit SEO technique sur le site internet de mon entreprise mais je sèche sur la compréhension du fichier robots.txt existant. Je comprends sans problème l'intérêt de ce fichier, là n'est pas la question. Simplement, je voudrais comprendre le raisonnement derrière ce que les anciens webmaster ont écrit (en particulier sur l'utilisation des user-agents "mediapartner-google" et "googlebot-image" et des directives associées). J'ai l'impression qu'il y a quelque chose qui n'est pas logique et je voudrais connaître votre avis. Merci beaucoup !
Voici les lignes du fichier à analyser :
(...+ d'autres directives en disallow)
Je suis aujourd'hui en charge de réaliser un audit SEO technique sur le site internet de mon entreprise mais je sèche sur la compréhension du fichier robots.txt existant. Je comprends sans problème l'intérêt de ce fichier, là n'est pas la question. Simplement, je voudrais comprendre le raisonnement derrière ce que les anciens webmaster ont écrit (en particulier sur l'utilisation des user-agents "mediapartner-google" et "googlebot-image" et des directives associées). J'ai l'impression qu'il y a quelque chose qui n'est pas logique et je voudrais connaître votre avis. Merci beaucoup !
Voici les lignes du fichier à analyser :
Code:
User-agent: *
# Sitemap
Sitemap: https://www.sitedemonentreprise.com/fr/sitemap_index.xml
# Allow
Allow: /wp-content/uploads/
Allow: /*css?*
Allow: /*js?*
User-agent: Mediapartners-Google*
Allow: /
User-agent: Googlebot-Image
# Disallow ADMIN
Disallow: /wp-login.php
Disallow: /*?
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content
(...+ d'autres directives en disallow)