WRInaute accro
Bonjour,
J'ai développé une petite appli bien utile qui trace le passage de googlebot dans les logs.
Et je suis étonné de la fréquence de son passage sur certains fichiers déjà connus.
Je prends le cas de robots.txt.
Rien que ce matin, il est passé 9 fois ! Il a commencé à minuit et n'a cessé de le crawler.
Alors avant qu'on me dise : "Il passe peut-être avant d'indexer une page ?", je répondrais : "Oui effectivement il pourrait crawler mon fichier puis la page et si rien ne l'empêche, il indexe ou fait une maj dans ses données !".
Mais non... il a commencé à crawler le fichier robots à minuit et jusqu'à env. 5h il n'y a rien crawler d'autres !
Et durant cette période, il est passé 7 fois dessus !
Alors quand on parle de "budget crawl" ou encore de "crawl prédictif", je trouve qu'il a une drôle de méthode pour crawler.
Votre retour d'expérience ?
Merci
J'ai développé une petite appli bien utile qui trace le passage de googlebot dans les logs.
Et je suis étonné de la fréquence de son passage sur certains fichiers déjà connus.
Je prends le cas de robots.txt.
Rien que ce matin, il est passé 9 fois ! Il a commencé à minuit et n'a cessé de le crawler.
Alors avant qu'on me dise : "Il passe peut-être avant d'indexer une page ?", je répondrais : "Oui effectivement il pourrait crawler mon fichier puis la page et si rien ne l'empêche, il indexe ou fait une maj dans ses données !".
Mais non... il a commencé à crawler le fichier robots à minuit et jusqu'à env. 5h il n'y a rien crawler d'autres !
Et durant cette période, il est passé 7 fois dessus !
Alors quand on parle de "budget crawl" ou encore de "crawl prédictif", je trouve qu'il a une drôle de méthode pour crawler.
Votre retour d'expérience ?
Merci