Crawltrack light ?

WRInaute accro
Bonjour,

voici ma problématique :
je cherche à suivre précisément les visites robots sur un site à assez fort trafic.
j'ai d'abord testé le plugin Google de awstats, mais je n'ai pas de suivi par jour, juste par mois, ce qui est ingérable
ensuite je regarde crawltracks, mais je m'aperçois qu'aujourd'hui c'est un outil de suivi statistiques complet, visiteur + robots.
or, le site faisant 1.000.000 pages vues internaute / jour et 600.000 pages vues robots / jour, si je le laisse mettre mettre en base toutes les visites du site, il me faut un nouveau serveur dédié et nettoyer la base tous les mois ... je cherche donc une version ou un logiciel ne stockant que les visites robots, et pouvant cracher des statistiques journalières.

quelqu'un a-t-il la solution magique ?
merci !
 
WRInaute discret
Bonsoir,

Je n'avais pas vu ce fil (merci Madri ;) ).
Je ne sais pas si ça répond à ta demande, mais il est possible de paramétrer CrawlTrack pour purger la base régulièrement automatiquement (le nombre de jours à garder est paramètrable).
La manoeuvre est expliqué dans le fichier crawltrack-lite.txt qui est présent à la racine de l'archive.

La possibilité de paramétrer les options utilisées sera certainement une des pistes d'évolution du script.

A+
Jean-Denis
 
Discussions similaires
Haut