Bonjour,
Depuis un mois j'ai mis en ligne un site web avec la possibilité d'avoir les derniers articles du site par flux rss. J'ai vu que google avait indéxé les différents fichiers backend.
Exemple: ***/backend.php3?id_rubrique=12
Aussi, je me demandais si il fallait interdire aux robots d'indexer ces pages car ses pages ressemblent à une accumulation de mots clefs ou a une copie des articles du site.
Une règle dans le fichier robots.txt du genre:
User-agent: *
Disallow: /backend.php3
vous semble t'elle bonne et justifiée?
Merci d'avance
Depuis un mois j'ai mis en ligne un site web avec la possibilité d'avoir les derniers articles du site par flux rss. J'ai vu que google avait indéxé les différents fichiers backend.
Exemple: ***/backend.php3?id_rubrique=12
Aussi, je me demandais si il fallait interdire aux robots d'indexer ces pages car ses pages ressemblent à une accumulation de mots clefs ou a une copie des articles du site.
Une règle dans le fichier robots.txt du genre:
User-agent: *
Disallow: /backend.php3
vous semble t'elle bonne et justifiée?
Merci d'avance
