J'ai bien sûr un script anti-aspirateur sur mon site. Mais régulièrement, je l'enlève et je crawle mon site pour vérifier qu'il n'y a de liens cassés, ou d'autres problèmes.
Mais je n'y arrive plus. De lui-même, le crawl s'arrête et les requêtes finissent en timeout.
Mon site contient environ 50000 fichiers.
C'est mon serveur qui ne vaut pas grand chose ?
Mais je n'y arrive plus. De lui-même, le crawl s'arrête et les requêtes finissent en timeout.
Mon site contient environ 50000 fichiers.
C'est mon serveur qui ne vaut pas grand chose ?