Aspirateur de site

WRInaute discret
Bonjour à tous,

j'aimerais utiliser un bon aspirateur de sites web, afin de faire une sauvegarde en dur de mon site, donc rien d'illégal là dedans :D

Aussi, j'aimerais qu'il ne sature pas mon serveur (il y a près de 10.000 pages dans ma BD) et aussi qu'il me pourrisse pas mes stats (gg Analytics).

Merci à tous

Didier
 
WRInaute discret
je veux des sauvegardes en dur, puisque comme indiqué, j'ai une base de données, et je voudrais une sauvegarde de 10.000 fichiers html en plus de mon dump de BD.

[TON TRES COURTOIS NE PAS MAL LE PRENDRE]A l'attention de tous, merci de vous recentrer sur la question et de ne pas troller stp mon topic : soit ovus connaissez et vous m'aidez gentiment et je vous serais très reconnaissant, soit vous passez, mais de grâce, pas de remarques déplacées [/TON TRES COURTOIS NE PAS MAL LE PRENDRE]
 
WRInaute accro
Réponse à la question : Il m'est arrivé d'utilsier HTTrack website copier pour récupérer en local des sites HTML que je devais refaire.

[question subsidiaire posée après avoir répondu ;) ]
Pourquoi vouloir faire une copie en dur d'un site Web dynamique ?
[/question subsidiaire]
 
WRInaute discret
nickargall a dit:
[question subsidiaire posée après avoir répondu ;) ]
Pourquoi vouloir faire une copie en dur d'un site Web dynamique ?
[/question subsidiaire]

:mrgreen: :mrgreen:

réponse à la question subsidaire : car j'ai récupéré un site codé n'importe comment et c'est la merde, y'a des fichiers en dur, y'en a en BD, ça me gonfle, alors, j'aspire tout, je parse, et je refais une bd et un site propres

ça te convient ??? :)

Merci à tous je m'en vais de ce pas tester httrack
 
WRInaute passionné
Je conseille l'aspirateur de sites web e-Dyson, le seul qui ne perde pas l'aspiration lorsqu'il crawle un site web poussiéreux.
 
Discussions similaires
Haut