categorizator

WRInaute discret
pres de 6000 liens, une 30 aine de sites soumis tous les jours (pas tous validés) et Categorizator tient le choc.
Ca ne rame pas, il n y a pas d erreur sql.
Il faut dire que je ne gere pas les vignettes, ca allege un peu tout ca.

quelqu'un a un categorizator de + de 10000 liens, pour savoir s'il réagit toujours bien ?
 
WRInaute accro
Farenheit a dit:
KOogar a dit:
a 8357 liens il tombe en panne ^^
Faut le réanimer par massage cardiaque !!

Ah c'est malin !!
je veux juste savoir si ca rame pas trop, s'il n y a pas de probleme avec la base, etc... :wink:

pourquoi voudrais tu que cela soit different avec 1 000 000 de sites ? c'est le serveur qui stock les datas, et meme si php/mysql n'est pas super optimisé, c'est avant tout du coté machine serveur stockage qui te faudra porter ton attention en cas de grossissement important de ta base;
 
WRInaute passionné
KOogar a dit:
Farenheit a dit:
KOogar a dit:
a 8357 liens il tombe en panne ^^
Faut le réanimer par massage cardiaque !!

Ah c'est malin !!
je veux juste savoir si ca rame pas trop, s'il n y a pas de probleme avec la base, etc... :wink:

pourquoi voudrais tu que cela soit different avec 1 000 000 de sites ? c'est le serveur qui stock les datas, et meme si php/mysql n'est pas super optimisé, c'est avant tout du coté machine serveur stockage qui te faudra porter ton attention en cas de grossissement important de ta base;
Ce qui prend le plus de resource en general c'est la recherche aussi bien en place qu'en temps, surtout si c'est un programmeur du dimanche qui utilise "like" pour la recherche :lol:
 
WRInaute accro
forummp3 a dit:
Ce qui prend le plus de resource en general c'est la recherche aussi bien en place qu'en temps, surtout si c'est un programmeur du dimanche qui utilise "like" pour la recherche :lol:
Comme celui qui a créé categorizator donc ;)
 
WRInaute passionné
serval2a a dit:
forummp3 a dit:
Ce qui prend le plus de resource en general c'est la recherche aussi bien en place qu'en temps, surtout si c'est un programmeur du dimanche qui utilise "like" pour la recherche :lol:
Comme celui qui a créé categorizator donc ;)
bon ben il tiendra pas la charge categorizator :lol:

Il a mis like car 90% des annuaires ne depassent pas 1000 sites, mais si tu met un like pour 10 000 ou 100 000 ligne, tu va mettre ton serveurs plusieurs secondes a 100% en charge juste pour une requete. je te laisse imaginer le masacre avec des dizaines ou des centaines de requetes en meme temps.
 
WRInaute accro
forummp3 a dit:
Il a mis like car 90% des annuaires ne depassent pas 1000 sites, mais si tu met un like pour 10 000 ou 100 000 ligne, tu va mettre ton serveurs plusieurs secondes a 100% en charge juste pour une requete. je te laisse imaginer le masacre avec des dizaines ou des centaines de requetes en meme temps.

En même temps y'a pas des tonnes d'annuaires sous categorizator qui se prennent plusieurs dizaines ou centaines de recherches simultanées :roll:
 
WRInaute passionné
HawkEye a dit:
forummp3 a dit:
Il a mis like car 90% des annuaires ne depassent pas 1000 sites, mais si tu met un like pour 10 000 ou 100 000 ligne, tu va mettre ton serveurs plusieurs secondes a 100% en charge juste pour une requete. je te laisse imaginer le masacre avec des dizaines ou des centaines de requetes en meme temps.

En même temps y'a pas des tonnes d'annuaires sous categorizator qui se prennent plusieurs dizaines ou centaines de recherches simultanées :roll:
suffit de 10 personnes en ligne ...
Non mais avec une requete tu peux plomber toute le serveurs, sur du mutualisé tu ne tiendra pas longtemps ...
 
WRInaute accro
Leonick a dit:
Darkcity a dit:
Si problème il y a, il sera du côté de la base de données et non du script en lui-même.
un script mal (ou non) optimisé peut faire tomber facilement une base de données.


en restant dans le sujet, categorizator ne fera jamais scratcher un serveur, faut pas abuser ^^
 
WRInaute discret
bon, je pense pas qu'il existe actuellement un annuaire categorizator qui recoit plusieurs dizaines ou centaines de recherches simultannées comme je l ai lu plus haut. :D
D'ailleurs, a force de tourner et virer, j en ai meme pas vu un seul a plus de 10000 sites references dans sa base.
La moyenne de ce que j ai vu tourne autour de 2000/4000 sites maxi. ce qui n'est pas enorme pour des annuaires generalistes.
avec 6000 sites "inside" chez moi, il n y a pas de soucis. je reagirai a nouveau quand j en serai a 10000.... a une moyenne de 300 sites valides chaque mois, il y en a encore pour quelques mois avant d y arriver
 
Nouveau WRInaute
Si problème il y a, il sera du côté de la base de données et non du script en lui-même.

Oui et non.

Non car le script peut detruire les perf d'une machine
et oui car en general ( dans 99% des cas ) il suffit de changer la facon dont sont faite les "select"
Select * est proscrire par example

La grosse optimisation vient des "index" utilisés .

Donc Oui ca vient de la base mais Non car c'est le code qui accede a la base.

Pour ceux qui tombent sur ce topic apres une recherche sur les optimisation possible , d'une facon generique , je dirais :
-1- Penser a optimiser la base
-2- Penser a re-trier les elements de la bse si il sont desordoné
-3- Banir le select * de votre code
-4- Utiliser un select MONINDEX, x, y, z ...

C'est des petites optimisations mais sur quelques milliers de requetes ca commence a faire beaucoup de temp cpu/memoire economisé

Pour la suite, c'est une question de conception et là la patchouille ne fonctionne plus!
++
 
Discussions similaires
Haut