Bonjour à tous,
Dans mon robots.txt, j'ai mis en disallow ces éléments :
Disallow: /wp-login.php
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Lorsque je vais dans Search Console -> Explorer comme Google (onglet exploration) et que je sélectionne une URL.
Entre ce que voit Google Bot et ce que voit l'internaute, il y a une différence.
Google Bot voit mon site comme s'il était cassé (sans CSS / JS) donc pas comme un internaute lambda.
J'aurai voulu savoir si cela était pénalisant pour le SEO ?
Dans mon robots.txt, j'ai mis en disallow ces éléments :
Disallow: /wp-login.php
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Lorsque je vais dans Search Console -> Explorer comme Google (onglet exploration) et que je sélectionne une URL.
Entre ce que voit Google Bot et ce que voit l'internaute, il y a une différence.
Google Bot voit mon site comme s'il était cassé (sans CSS / JS) donc pas comme un internaute lambda.
J'aurai voulu savoir si cela était pénalisant pour le SEO ?