Ajout massif de données ds une bdd mysql

WRInaute discret
Bonjour à tous !

Voila je souhaite ajouter une grosse quantité de données brutes (fichier txt) dans une base mysql mais pour je ne sais quel raison avec l'import de données sur PhpMyAdmin ou eskuel l'insertion se limite à 127 enregistrements tandis que le fichier initiale en compte beaucoup plus.

j'ai essayé de créer un script faisant le taf en lisant le fichier texte et en me sortant à chaque ligne lu ceci :

INSERT INTO `table` VALUES ('1','ligne1 ');
INSERT INTO `table` VALUES ('2','ligne2 ');

mais là c'est le tps d'éxécution du script qui pose problème, j'ai donc essayé de le modifié dans php.ini mais sans succès xamp ne prend pas en compte le changement même après redémarrage de celui ci.

Merci de m'aider je désespère....
 
WRInaute discret
En utilisant ini_set, ça ne passe pas non plus ?

ini_set('max_execution_time', ta_limite_de_temps);
(temps d'exec en secondes)

Autre fonction: set_time_limit()

Sinon, en cas d'accès shell :
mysql -u user -p mabase < monimportsql.sql

Bonne chance :)
 
WRInaute discret
Merci de ta réponse mais jai déja tenté et sous firefox voila le résultat après 30/40 sec : "La connexion avec le serveur a été réinitialisée pendant le chargement de la page." sous IE il refresh sans arrêts et le script reprend à zéro....
 
WRInaute discret
Si tu as un peu de temps, une solution itérative ?

Dans le genre un peu complexe, si ça en vaut vraiment la peine, générer X pages qui chacune loadent un bout de ta base (coupée p.ex. en perl c'est très simple), de telle sorte que le traitement de chaque fichier prenne moins de 30 secs.

Générer un site avec exec-1.php ... exec-X.php (p.ex. utiliser le module d'index d'apache)

Finalement, appeller wget ou un autre robot pour qu'il récupère toutes les pages en attendant, admettons, 45 sec.
 
Discussions similaires
Haut