Bonjour,
Voici mon problème :
J'ai plusieurs sites avec beaucoup de contenu (certains avec environ 70.000 pages).
Aujourd'hui, j'avais plus de 15 robots qui scannaient mes pages, ils ont scannés plus de 900.000 pages rien qu'a eux.
Je n'ai pas autant de visites d'internautes, mais les moteurs me bouffent toutes les ressources du serveur, et cela arrive pratiquement tout les jours.
Y'a t-i-l un moyen pour "limiter" le nombre de pages vue par les robots, ou un moyen pour que cela me prennent moins de ressources et moins de bande passante ?
Dans GWT, je sais que l'on peut baisser la demande d'exploration du site par le robot, mais pour les autres moteurs ?
Cela est-il néfaste pour le référencement ?
Merci pour vos réponses ou vos retours d'expériences sur ce sujet.
Voici mon problème :
J'ai plusieurs sites avec beaucoup de contenu (certains avec environ 70.000 pages).
Aujourd'hui, j'avais plus de 15 robots qui scannaient mes pages, ils ont scannés plus de 900.000 pages rien qu'a eux.
Je n'ai pas autant de visites d'internautes, mais les moteurs me bouffent toutes les ressources du serveur, et cela arrive pratiquement tout les jours.
Y'a t-i-l un moyen pour "limiter" le nombre de pages vue par les robots, ou un moyen pour que cela me prennent moins de ressources et moins de bande passante ?
Dans GWT, je sais que l'on peut baisser la demande d'exploration du site par le robot, mais pour les autres moteurs ?
Cela est-il néfaste pour le référencement ?
Merci pour vos réponses ou vos retours d'expériences sur ce sujet.