Bonjour,
J'arrive pas a me mettre d'accord sur le sujet du Disallow sur le Robot.txt, j'ouvre donc la question dans le forum de spécialiste pour avoir vos retours.
Constat :
J'ai un site Prestashop dans lequel j'ai activé le Multilangue afin de prévoir l’éventualité d'ouvrir la version anglaise dans de bref délais sans pour autant retoucher toutes mes URL FR le Jour "J" et faire un plan de redirection (car Prestashop en Multilangue ajoute la syntaxe /en/ ou /en/ après le nom de domaine). Pour activer le multi-langue, Prestahop oblige à activer minimum deux langues donc 2 versions (ici /fr et /en ). Cela implique donc que j'ai une URL "/en" active sur mon site...
Objectif : Ne pas autoriser le Crawl sur la version Anglaise de mon site.
Alors en plus de supprimer l'URL temporairement dans les options de Google Search (ça c'est fait) , je souhaite donc paramétrer mon robot.txt pour que Google comprenne que je n'utilise pas cette version.
Problématique :
Mais la Syntaxe utilisée me pose problème. En étudiant un peu le sujet dans les Forum, souvent il préconise "Disallow: /*en/" ...dans le Robot.txt . Pourtant comme le "Disallow: /en/", je remarque que Google autorise le crawl de ma page NomDeDomaine/en (du coup il l' a indexé le cochon !) .... De plus "*" (l'étoile) me permet d’exclure des caractères spécifiques en début ou fin de nom de dossiers dans tous les niveau de profondeurs mais pas forcement dans les noms de produits...enfin bref ça se complexifie. Je trouve donc "Disallow: /*en/" pas pertinent et risqué....
Solution :
Après test sur https://www.google.com/webmasters/tools/robots-testing-tool, j'aurais tendance à utiliser plutôt cette syntaxe "Disallow: /en" qui me parait la plus pertinente. Qu'en pensez-vous ? Certains ont vécus cette expérience ?
Merci !
J'arrive pas a me mettre d'accord sur le sujet du Disallow sur le Robot.txt, j'ouvre donc la question dans le forum de spécialiste pour avoir vos retours.
Constat :
J'ai un site Prestashop dans lequel j'ai activé le Multilangue afin de prévoir l’éventualité d'ouvrir la version anglaise dans de bref délais sans pour autant retoucher toutes mes URL FR le Jour "J" et faire un plan de redirection (car Prestashop en Multilangue ajoute la syntaxe /en/ ou /en/ après le nom de domaine). Pour activer le multi-langue, Prestahop oblige à activer minimum deux langues donc 2 versions (ici /fr et /en ). Cela implique donc que j'ai une URL "/en" active sur mon site...
Objectif : Ne pas autoriser le Crawl sur la version Anglaise de mon site.
Alors en plus de supprimer l'URL temporairement dans les options de Google Search (ça c'est fait) , je souhaite donc paramétrer mon robot.txt pour que Google comprenne que je n'utilise pas cette version.
Problématique :
Mais la Syntaxe utilisée me pose problème. En étudiant un peu le sujet dans les Forum, souvent il préconise "Disallow: /*en/" ...dans le Robot.txt . Pourtant comme le "Disallow: /en/", je remarque que Google autorise le crawl de ma page NomDeDomaine/en (du coup il l' a indexé le cochon !) .... De plus "*" (l'étoile) me permet d’exclure des caractères spécifiques en début ou fin de nom de dossiers dans tous les niveau de profondeurs mais pas forcement dans les noms de produits...enfin bref ça se complexifie. Je trouve donc "Disallow: /*en/" pas pertinent et risqué....
Solution :
Après test sur https://www.google.com/webmasters/tools/robots-testing-tool, j'aurais tendance à utiliser plutôt cette syntaxe "Disallow: /en" qui me parait la plus pertinente. Qu'en pensez-vous ? Certains ont vécus cette expérience ?
Merci !