WRInaute impliqué
Je faisais bien attention à ne pas dépasser la bande passante sur le mutualisé qui héberge mes sites perso (5go/mois)
et voilà que picsearch.com m'envoie ses spiders, et c'est franchement lourd
entre spider2.picsearch.com spider4.picsearch.com spider3.picsearch.com spider10.picsearch.com, ...etc... j'en suis à plus de 2,5 Go pour ce mois ci ! l'hébergeur m'a dit qu'ils ne me factureraient pas la charge supplémentaire, mais il faudrait que ça ne se reproduise pas régulièrement...
que faudrait-il que je mette dans le robots.txt (puisque j'imagine que c'est là que ça se joue) pour empêcher ça ?
merci d'avance
et voilà que picsearch.com m'envoie ses spiders, et c'est franchement lourd
entre spider2.picsearch.com spider4.picsearch.com spider3.picsearch.com spider10.picsearch.com, ...etc... j'en suis à plus de 2,5 Go pour ce mois ci ! l'hébergeur m'a dit qu'ils ne me factureraient pas la charge supplémentaire, mais il faudrait que ça ne se reproduise pas régulièrement...
que faudrait-il que je mette dans le robots.txt (puisque j'imagine que c'est là que ça se joue) pour empêcher ça ?
merci d'avance