Bonjour a tous,
J'ai parcouru le forum sans trouver de vraie reponse a mon genre de question, alors je vous la pose :
Voila, je dispose de Googlestats et de Urchin comme outils de statistiques diverses.
J'ai pu remarquer que le crawl qui passe chez moi a outrance depuis que j'ai installe le googletap (url rewriting pour phpnuke) sur mon site. Je me suis longtemps battu pour permettre le passage du bot mais maintenant qu'il passe il me consomme une bande passante phenomenale ! Cette bande passante consommee ne me semble pas du aux visiteurs de mon site puisque il est assez petits en terme de frequentation (200 visiteurs / jours), je ne dispose d'aucun gros fichier en telechargements (ils sont chez des hebergeurs externes), mais il y a relativement pas mal d'images sur le route de l'internaute a travers mon site. Je pense donc que le GoogleBot consomme ma bande passante a cause des images qu'ils rencontre sur mes pages.
Et si je fais la correlation pic de bande passante (selon urchin) et passage du bot (selon googlestats) ca correspond jour pour jour ...
Je suis entrain d'optimiser la compression de mes images, mais je voudrais solutionner le pb en interdisant au googlebot l'indexation des mes images mais pas de mes pages .... a moins que vous ayez une meilleure solution peut-etre ...
voici un resume urchin :
La session de mes soit disant "visiteurs" (qui sont en realite fausse du au comptage du googlebot dans le lot) est passe de 250Ko (avant urlrewriting) a presque 1Mo aujourd'hui !!!!!!
Que faire ?
Voici mon robots.txt :
Merci a tous !
J'ai parcouru le forum sans trouver de vraie reponse a mon genre de question, alors je vous la pose :
Voila, je dispose de Googlestats et de Urchin comme outils de statistiques diverses.
J'ai pu remarquer que le crawl qui passe chez moi a outrance depuis que j'ai installe le googletap (url rewriting pour phpnuke) sur mon site. Je me suis longtemps battu pour permettre le passage du bot mais maintenant qu'il passe il me consomme une bande passante phenomenale ! Cette bande passante consommee ne me semble pas du aux visiteurs de mon site puisque il est assez petits en terme de frequentation (200 visiteurs / jours), je ne dispose d'aucun gros fichier en telechargements (ils sont chez des hebergeurs externes), mais il y a relativement pas mal d'images sur le route de l'internaute a travers mon site. Je pense donc que le GoogleBot consomme ma bande passante a cause des images qu'ils rencontre sur mes pages.
Et si je fais la correlation pic de bande passante (selon urchin) et passage du bot (selon googlestats) ca correspond jour pour jour ...
Je suis entrain d'optimiser la compression de mes images, mais je voudrais solutionner le pb en interdisant au googlebot l'indexation des mes images mais pas de mes pages .... a moins que vous ayez une meilleure solution peut-etre ...
voici un resume urchin :
Code:
Nombre moyen d'accès pages par jour 7 647,14
Nombre moyen de succès par jour 23 165,57
Nombre moyen d'octets transférés par jour 341,09 MB
Nombre moyen d'octets par visiteur 968,68 KB
La session de mes soit disant "visiteurs" (qui sont en realite fausse du au comptage du googlebot dans le lot) est passe de 250Ko (avant urlrewriting) a presque 1Mo aujourd'hui !!!!!!
Que faire ?
Voici mon robots.txt :
Code:
User-agent: *
Disallow: admin.php
Disallow: /admin/
Disallow: /images/
Disallow: /includes/
Disallow: /themes/
Disallow: /blocks/
Disallow: /modules/
Disallow: /language/
Disallow: /SBT/
Disallow: /test/
Disallow: /googlestats/
Disallow: /phpMyBackup/
Disallow: /phpMyAdmin/
Disallow: /pphlogger/
Disallow: /webalizer/
Disallow: /xtdump/
Disallow: /dump/
Disallow: /*.gif$
Disallow: /*.jpg$
Disallow: /images/*.jpg$
Disallow: /images/*.gif$
Disallow: /images/news/*/*.jpg$
Disallow: /images/news/*/*.gif$
Disallow: /images/dossiers/*/*.jpg$
Disallow: /images/dossiers/*/*.gif$
Disallow: /themes/Bloodbowl/images/*.jpg$
Disallow: /themes/Bloodbowl/images/*.gif$
Disallow: /modules/Forums/images/*/*.jpg$
Disallow: /modules/Forums/images/*/*.gif$
Merci a tous !