1. ⭐⭐⭐ Grosse PROMO en cours sur ma plateforme SEO My Ranking Metrics
    Rejeter la notice

[Analyses] Pourquoi optimiser le temps de chargement

Discussion dans 'Tests et études de cas' créé par Madrileño, 18 Décembre 2008.

  1. Madrileño
    Madrileño Membre Honoré
    Inscrit:
    7 Juillet 2004
    Messages:
    32 260
    J'aime reçus:
    271
    Optimiser le temps de chargement d'un site internet est important pour l'utilisateur (tout le monde n'est pas en haut débit et penser aussi à ceux qui utilisent des systèmes mobiles) et pour les moteurs (les robots crawls plus vite et facilement les sites).

    Voici quelques éléments utiles à savoir :
    qui sont disponibles sur la présentation de Monsieur Eric Daspet (blog du créateur : Performance web).

    Le document est disponible à l'adresse :
    slideshare.net/edaspet/performances-web-afup-2008-presentation
    et d'autres informations sur la source.

    Source : Pourquoi optimiser le temps de chargement de son site internet est-il super important ? | Korben.
     
  2. RiPSO
    RiPSO WRInaute impliqué
    Inscrit:
    5 Octobre 2007
    Messages:
    970
    J'aime reçus:
    0
    :lol:
     
  3. screuscreu
    screuscreu WRInaute impliqué
    Inscrit:
    14 Janvier 2008
    Messages:
    701
    J'aime reçus:
    0
    Merci beaucoup pour le partage, l'info et tout et tout.
    Je lis cela au plus vite !

    une reco
     
  4. Michel
    Michel WRInaute passionné
    Inscrit:
    22 Décembre 2002
    Messages:
    1 357
    J'aime reçus:
    0
    Merci encore une fois Madri, ça m'intéresse beaucoup ce sujet.

    +1 reco

    Oups ! j'ai "signalé", par erreur, en 1er
     
  5. ybet
    ybet WRInaute accro
    Inscrit:
    22 Novembre 2003
    Messages:
    7 527
    J'aime reçus:
    0
    J'ai nettoyé mes codes il y a déjà quelques années -> pas de modifications dans mes stats visiteurs, ni même de temps passé sur les pages (en plus j'ai descendu les images pour que le texte apparaissent tout de suite).

    Pour les mobiles, le % d'utilisateurs est finalement très faible et ils ont du s'habitué (rien qu'une animation pub en flash ...).
    Avec FrontPage configuré comme 28.800K (on rève, plus personne n'utilise ca), des pages font jusque 180 secondes mais pas de différence de taux de rebond par rapport aux autres ...

    Les vitesses sont suffisamment rapides actuellement pour ne plus trop s'amuser à bricoler les codes, un bon hébergement suffit.
    J'avoue être passsé depuis 3 ans sur un petit dédié (500 € / an ) avec une quinzaine de sites hébergés (mais pas que les miens) ety fini les temps de réponse genre lézard suisse.
    Site trop lent? plutôt un changement d'hébergement qu'une grosse modification du code.
    Me souvient d'une entreprise d'hébergement basée à Strasbourg ... le forum de mon site était très lent ... et chaque fois la réponse était c'est mon forum :evil: . Transféré le site sur un dédié (et plus de problèmes) mais restait lmes autres sites. Un deuxième devient lent et réponse du servive techinque, c'est le forum du site WWW -> réponse: un peu facile, le site n'est plus hébergé chez vous depuis des mois :lol:
    Lenteur d'un site = hébergement dans 80 % des cas + plus bloquer les aspirateurs (et oui, là c'est momentané mais qu'est ce que ca bouffe de la bande passante)
     
  6. zepatente
    zepatente WRInaute discret
    Inscrit:
    12 Décembre 2008
    Messages:
    243
    J'aime reçus:
    0
    Bonsoir,

    les statistiques sur les gros sites et la perte que cela pourrait engendrer sont impressionnantes .
    + 1 reco

    @+
     
  7. dd32
    dd32 WRInaute accro
    Inscrit:
    9 Septembre 2005
    Messages:
    2 735
    J'aime reçus:
    0
    Pas de problème, merci pour l'info ;)
     
  8. goldo60
    goldo60 Nouveau WRInaute
    Inscrit:
    31 Juillet 2007
    Messages:
    37
    J'aime reçus:
    0
    Merci Madri je vais de ce pas...
     
  9. raljx
    raljx WRInaute passionné
    Inscrit:
    10 Juillet 2006
    Messages:
    2 064
    J'aime reçus:
    0
  10. Advisto
    Advisto WRInaute discret
    Inscrit:
    9 Décembre 2004
    Messages:
    174
    J'aime reçus:
    0
    Un taux de rebond faible est important pour les sites de type e-commerce.
    La présentation est un bon exemple pour mieux comprendre les enjeux pour les entreprises.
     
  11. jeanluc
    jeanluc WRInaute accro
    Inscrit:
    3 Mai 2004
    Messages:
    2 883
    J'aime reçus:
    0
    Je ne vois pas d'explication sur l'origine de ces chiffres et les méthodes de mesure. Ai-je mal regardé ?

    Jean-Luc
     
  12. djout
    djout Nouveau WRInaute
    Inscrit:
    16 Décembre 2008
    Messages:
    17
    J'aime reçus:
    0
    merci pour ce joli poste madri :wink:
     
  13. screuscreu
    screuscreu WRInaute impliqué
    Inscrit:
    14 Janvier 2008
    Messages:
    701
    J'aime reçus:
    0
    Pour l'optimisation, vos images sont :
    -jpg
    -jpg2000
    -png24
    -png8
    -gif
    -autre ?

    Moi perso je suis en train de tester full png8
     
  14. Madrileño
    Madrileño Membre Honoré
    Inscrit:
    7 Juillet 2004
    Messages:
    32 260
    J'aime reçus:
    271
    C'est une bonne question.
    C'est un peu suivant les images.
     
  15. Bigb06
    Bigb06 WRInaute impliqué
    Inscrit:
    21 Mars 2007
    Messages:
    842
    J'aime reçus:
    1
    Je ne suis pas du tout d'accord, et ce n'est d'ailleurs pas du tout le thème du blog présenté. En dehors de tout problème de temps d'accès et de temps de génération de pages (script exécuté, BD,...) et donc même avec des fichiers statiques, 80% du temps de chargement d'une page a lieu côté client. Donc l'hébergement ne joue au maximum que sur 20% de la vitesse d'un site!

    L'optimisation des performances est un gain énorme pour l'utilisateur. Personnellement et pour exemple, je n'aime pas surfer sur le forum de WRI depuis mon iphone car les pages sont trop lentes à charger. Donc le temps de chargement joue sur ma navigation.

    Pour les crawlers, le fait d'optimiser la mise en cache des éléments CSS/JS/Javascripts avec des date d'expiration très éloignée permet d'optimiser les composants crawlés par les bots. Si on indique aux bots que toutes les images du site et autres composants ne changeront pas avant 2015, il ne vérifiera plus le contenu et ne téléchargera plus ces composants inutilement.
    Les principales règles à mettre en place, facile et très efficace : http://developer.yahoo.com/performance/rules.html
     
  16. tonguide
    tonguide WRInaute passionné
    Inscrit:
    28 Novembre 2003
    Messages:
    1 169
    J'aime reçus:
    0
    Le document que tu vois là est une synthèse du travail mené par son auteur qui est disponible sur son blog.

    Il ne fait ici que résumé de façon très accessible (du moins, je trouve) ce que son blog présente dans les détails et bien plus techniquement que dans ce PDF. Je n'ai pas vérifié, mais je suis quasi sûr que tu retrouveras ces chiffres sur son site ainsi que les sources. Le chiffre d'Amazon par exemple est assez connu et fournit par Amazon lui même, d'où le fait qu'il soit très light d'ailleurs en terme de présentation.

    J'ai quand même pris le temps 5sec et je suis tombé sur ça http://performance.survol.fr/2008/06/a-quoi-ca-sert/ (c'est son blog justement)
     
  17. TOMHTML
    TOMHTML WRInaute accro
    Inscrit:
    25 Août 2004
    Messages:
    2 524
    J'aime reçus:
    0
    que des exemples qui datent de 2006 ou avant. Je reste donc méfiant, même si je ne conteste pas l'intérêt de réduire le poids de ses pages.

    Néanmoins j'ai récemment multiplié par 3 le poids des pages d'un site. Pourtant j'ai aussi multiplié par 2,5 le nombre de visiteurs dans le même temps. Plus de poids = plus de contenu = plus d'intérêt = plus de visiteurs. CQFD.
     
  18. blman
    blman WRInaute accro
    Inscrit:
    5 Septembre 2003
    Messages:
    2 740
    J'aime reçus:
    1
  19. e-kiwi
    e-kiwi WRInaute accro
    Inscrit:
    23 Décembre 2003
    Messages:
    13 263
    J'aime reçus:
    1
    11 secondes pour la page totalement chargée, pas mal, pas mal :)
     
  20. ofaurax
    ofaurax Nouveau WRInaute
    Inscrit:
    16 Mars 2008
    Messages:
    26
    J'aime reçus:
    0
    Juste pour ajouter quelques chiffres, voici comment sont perçus les temps de réponse :
    - 0,1s : réponse instantanée, l'utilisateur ne voit même pas le délai
    - 1s : acceptable, l'utilisateur ressent le délai
    - 10s : soit il fait autre chose, soit il ferme et cherche ailleurs

    Source: http://www.useit.com/papers/responsetime.html
     
  21. raljx
    raljx WRInaute passionné
    Inscrit:
    10 Juillet 2006
    Messages:
    2 064
    J'aime reçus:
    0
    La video date un peu maintenant mais les regles de bases sont la ... en plus de l'augmentation des visites, l'optimisation de la vitesse est bénéfique par rapport aux bots ... une optmim des requetes HTTP (du moins en nombre) et, suivant le site, amène a booster les bots sur l'indexation. A voir les GWT sur les stats d'exploration, on voit une difference non negligeable entre un tps de reponse important et une optim. Ci-joint un printscreen des visites du bot de GG juste apres une optim sur les requetes Http (passées de 42 à 7 sur la page d'accueil)

    l'optim est en rouge (a vous de faire le calcul de progression avec les chiffres du graph) ;)
    la grosse progression est du au mouvement qui se ressent actuellement au niveai des majs ;)


    [​IMG]

    petit rappel : le bleu : nb pages exporées par jour; le vert nb kilo par jour; le rouge tps de telechargement par jour:)
     
  22. emilia123
    emilia123 Nouveau WRInaute
    Inscrit:
    30 Octobre 2006
    Messages:
    16
    J'aime reçus:
    0
    bonjour,

    je me permets de donner mon petit point de vue.
    j'ai aussi des critiques sur les chiffres fournis, meme si le ne les remets pas en cause.
    au niveau professionnel je surveille fréquemment des sites utilisant un CMS assez lourd avec parfois 4 à 5 secondes pour commencer à envoyer le contenu de la page.
    pourtant les sites étaient à 200 000 visiteurs en moyenne avant le CMS et pas plus pas moins peu de temps après le ralentissement énorme du site, et ça garde la courbe de fréquentation apres quelques mois (augmentation constante).
    si ça devait être 10 ou 20% de visiteurs en moins par 500ms ou même par secondes, il n'y aurait plus de visiteurs :)
    effectivement cela fait fuir un nombre certain de visiteur, mais par contre la grande majorité (les non informaticiens=>pas nous) ne fait pas de différence entre 0.5 seconde et 5 secondes de chargement, même parfois avec 10 secondes (au delà ça commence à ne plus être la même chose).

    c'est pas très "pro" comme discourt mais c'est un point de vue plus proche de ce que je constate souvent comparé aux chiffres annoncés

    A bientôt

    EM
     
  23. Ganf
    Ganf Nouveau WRInaute
    Inscrit:
    28 Décembre 2008
    Messages:
    5
    J'aime reçus:
    0
    Effectivement, les -20% ne sont pas cumulatifs directement (sinon certains sites n'auraient plus personne), et dépendent de la cible comme du contenu. Par contre quand tu dis que les utilisateurs informaticiens ne font pas la différence entre 0.5s et 5s ou même 10s, tu es dans le faux.

    Là c'est factuel, pas mal de gros sites ont des résultats fiables, avec des mesures de tests établies, sérieuses. On parle de sites grand public comme Yahoo, Amazon, ESPN, Google et plein d'autres. Eux ont tous vu une corrélation directe et automatique entre la performance en temps de réponse et le trafic, l'abandon, ou le taux de transformation. On parle là partout de différentiels inférieur à la seconde, et de résultats franchement pas négligeables.

    Après vous en faites ce que vous voulez, mais en interne c'est vérifié et revérifié avec des mesures témoin et tout ce qu'il faut à des études sérieuses ; au point que c'est une priorité des équipes désormais.

    Pour l'origine des citations quelqu'un a habilement pointé un billet. Certaines sont anciennes (quoi que deux ans, vu les courbes comparées de bande passante et d'augmentation de poids des pages, j'aurai tendance à dire que la situation n'a pu que empirer) mais la mesure yahoo (+400ms -> 5 à 9% d'abandons) est elle de ces derniers mois, encore une fois sur un site très grand public.

    Mais plus que ces chiffres (qui sont volontairement là pour choquer), l'important à retenir c'est que quelques jours d'investissement permettent en général une très nette amélioration des choses. Le retour sur investissement est bien plus fort que la plupart des travaux habituels.

    (maintenant si ton CMS fait 5s de génération de la page principal, tu as un gros problème backend à régler avant de passer à la suite)
     
  24. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 446
    J'aime reçus:
    0
    le problème, c'est qu'ils n'"analysent" qu'une petite partie de la génération d'une page web sur un navigateur.
    C'est bien beau de parler de temps de création de page, de compression de données, de transfert de données allégé car gzip, etc...
    mais quid du délais d'affichage de la page, des tonnes de js à faire ingurgiter au navigateur pour afficher la page ?
    le ouebdeuxzéro, c'est ajouter des effets Prototype, Scriptaculous, jquery qui fait "tomber" pas mal de configuration de pc pas trop puissante. Tout ça pour quoi ? obtenir un effet que l'on pourrait avoir juste avec du css avancé.
    Et pour moi, l'optimisation passe déjà par là.
    Et puis, franchement, quand je vais sur myspace, je suis très loin d'obtenir un affichage de page en moins d'un seconde.
     
  25. Ganf
    Ganf Nouveau WRInaute
    Inscrit:
    28 Décembre 2008
    Messages:
    5
    J'aime reçus:
    0
    Lisez les études avant de les commenter, c'est toujours mieux. Alors oui, ça prend en compte les temps de rendu de la page, les tonnes de js à ingurgiter et tout le reste.
     
  26. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 446
    J'aime reçus:
    0
    c'est pas vraiment ce qui est dit. A aucun moment je n'ai vu une invitation à restreindre les effets js, juste à mettre le js en fin de page (ou le charger dynamiquement) pour charger plus vite la page.
    Mais alors, qu'est-ce que le chargement de la page ? c'est quand tout le code html est chargé ou bien quand la totalité de la page est opérationnelle (javascript, images, css, flash,...)
    En plus, ils nous sortent des chiffres de hausse ou baisse d'audience, mais d'où les tirent-ils ?
    Quand on augmente ou baisse fortement la taille d'une page, c'est que l'on a revnu, en même temps, certaines fonctionnalités. Est-ce ce changement de fonctionnalités ou le changement de taille qui fait que l'audience change ?
    Si le temps de chargement était aussi important, pourquoi y a-t-il encore autant de sites développés en flash, surtout en considérant le fait que son référencement est bien moins évident qu'en html classique ?
     
  27. Ganf
    Ganf Nouveau WRInaute
    Inscrit:
    28 Décembre 2008
    Messages:
    5
    J'aime reçus:
    0
    Parce que un js bien fait ne coute pas grand chose. Il y a moyen de faire en sorte que ces javascript ne pénalisent pas trop l'utilisateur (en chargeant en asynchrone, en évitant de lancer trop souvent le rendu, en diminuant le temps de téléchargement bloquant). Certes, ça fonctionne aussi en retirant les javascript et les fonctionnalités mais ce n'est pas nécessaire d'aller jusque là (et surtout les gens ne sont généralement pas prêts à retirer des fonctionnalités, alors leur proposer de les faire "bien", ça permet déjà d'améliorer la situation).

    Ca c'est une très bonne question par contre. Le plus souvent on compte le temps de chargement complet de la page et de tous les composants. Si vous ne chargez rien en asynchrone ça correspond souvent à la fin de l'événment onload. Sinon c'est le moment où plus rien ne télécharge en tache de fond. C'est la mesure la plus utilisée parce que la plus objective.
    Cette mesure est en général obtenue avec Yslow, IBM Page Detailer ou AOL Page Test.

    Mais on joue sur le ressenti utilisateur donc quand il s'agit de modifier les choses pour vous (et pas d'expliquer aux autres des choses objectives), on regarde aussi le temps de premier rendu, le temps de rendu nécessaire à ce que les éléments "visibles" soient chargés (ceux qui ne nécessitent pas un scroll ou une action pour être vus), et le temps pour que la page soit utilisable avec son contenu (quitte à ce que tout ne soit pas chargé/visible dans les images ou les js). Généralement on ne fait que en parler parce que justement c'est subjectif, donc on ne peut pas apporter de chiffres sur la table.

    De leurs mesures d'audience, tout simplement.

    Pour beaucoup de choses un test utilisateur en labo n'est pas pertinent, c'est le cas des performances vu que ça joue sur le ressenti et "l'envie" d'aller sur le site (ce qui est à la base faussé par l'expérience). Du coup on joue sur les sites réels et on modifie un truc ou un autre pour certains utilisateurs. La plupart des grosses mises en prod sur les pages critiques (genre les pages d'accueil, les refontes de design) sont testes ainsi. On traque toute une série de comportements suivant ce qu'on cherche et on compare avec ceux qui ont le site habituel : temps de visite, clics sur les liens (tentés ou réussis), .... et temps de chargement

    Google et Yahoo font comme ça en tout cas, mais la plupart des gros sites mettent en place ce genre de procédures un jour ou l'autre (des fois avec une vrai procédure, des fois plus artisanalement uniquement pour une fonctionnalité bien précise)

    Pas forcément justement. Un coup de gzip, un coup de minimification, c'est déjà 95% de tes fichiers html/js/xml/css/json qui vient d'être éliminé. Un coup de smushit c'est souvent entre 10 et 50% du poids de tes images qui vient d'être retiré. Pas besoin de toucher aux fonctionnalités là.

    Mais oui, dans le cas de Google on parle bien de changer la fonctionnalité sur la première mesure. Si vous suivez le lien c'est un test pour savoir s'il faut faire des pages de 10 ou 30 résultats pour les recherches. Le contenu influe clairement sur le test, mais logiquement passer à 30 devrait plutot augmenter l'intérêt utilisateur. Visiblement c'est le contraire qui se passe.
    Le second chiffre Google est lui obtenu sur Maps, à fonctionnalité quasiment égales. Il s'agit de savoir ce qui est préchargé ou non, d'optimiser le poids de ce qui est chargé.


    Tous les gros qui parlent performance ont déjà choisis des sites en HTML classique, donc je vais manquer de base pour répondre. Déjà je ne suis pas certain que tous les sites en flash aient forcément un temps de réponse pourri, mais en même temps je n'ai aucun chiffre sur les sites flash dont je ne vais pas m'aventurer à trop en parler.

    Maintenant ce qui est certain, c'est que le fait que quelque chose soit mauvais n'a jamais empêcher plein de gens de le faire quand même, quel que soit le sujet, même si on ne parle pas des perf.
     
  28. J Lock
    J Lock Nouveau WRInaute
    Inscrit:
    20 Février 2009
    Messages:
    5
    J'aime reçus:
    0
    Slt,
    C'est vrai que c'est important d'avoir une page assez rapide (legere) pour avoir des temps de telechargement corrects.
    Mais je dirais quand meme que pour un site qui doit vendre ou qui doit etre agreable, il est important d'avoir des images en quantité.
    J'imagine mal un site d'information sans illustration ou un site marchand sans image descriptive...
    De mon coté, je test en continue le temps de telechargement de mes pages pour m'assurer que les modifs de la plateforme ou des images n'a pas trop d'impact sur mes temps / performances.
     
  29. Bigb06
    Bigb06 WRInaute impliqué
    Inscrit:
    21 Mars 2007
    Messages:
    842
    J'aime reçus:
    1
  30. Ursu-Charlie
    Ursu-Charlie WRInaute occasionnel
    Inscrit:
    28 Septembre 2009
    Messages:
    296
    J'aime reçus:
    0
  31. Taranis
    Taranis WRInaute occasionnel
    Inscrit:
    11 Août 2006
    Messages:
    302
    J'aime reçus:
    0
    [mode café]
    Mais pourquoi donc optimiser le temps de chargement des sites ? Oui, pourquoi ?

    Alors qu'avec Google Chrome :
    Démarrage rapide (Google Chrome se lance à la vitesse de l'éclair)
    Chargement rapide (Google Chrome charge les pages Web en un instant)
    Recherche rapide (Effectuez des recherches sur le Web directement à partir de la barre d'adresse)

    Mais il n'y a sûrement aucun rapport, vu que c'est pas Google qui a lancé la problématique hein ;)

    Des fois je pense : Google tient une majorité de webmasters par les c... , Google lance son giga rapide navigateur... Zut ça rame encore un peu :) , Google lance "le big plan speed optimisation" qui fait peur parce que PEUT-ETRE ça va influencer les SERPs, mais surtout c'est perte sèche de sous ! ... Et hop, les webmasters, les hébergeurs, les ingénieurs va falloir optimiser tout votre bazard.
    C'est marrant comme c'est Internet qui doit changer et jamais Google s'adapter :) . Ça me rappelle quelque chose mais quoi... Ha ! Travailler plus pour surfer plus ! :) Le grand capital perché l'a dit ! :)

    Parce que depuis l'avènement de l'informatique, l'optimisation du code et la bonne gestion du poids des fichiers ont toujours été primordiales, presque la quintessence du numérique (mais ça les jeunes geeks ne le savent même pas).
    Cependant il faut se mettre au goût du jour : la fibre optique c'est bien, les réseaux en Giga/s aussi, mais ça pèse combien en équivalent carbone ? Je vous le demande :).

    Merci Google consulting ! :)
    [/mode café]
     
Chargement...
Similar Threads - [Analyses] optimiser chargement Forum Date
Référencement local : optimiser pour les villes voisines Débuter en référencement 15 Mai 2019
Astuce Header dédié homepage pour optimiser le référencement Référencement Google 15 Mars 2019
Optimiser la vitesse d'une galerie GIF sur Wordpress Administration d'un site Web 21 Août 2018
Comment Optimiser Un Mot-Clé En Plusieurs Mots ? Débuter en référencement 3 Mars 2018
Que faire de plus pour optimiser le référencement de mon site ? Crawl et indexation Google, sitemaps 2 Mai 2017
Optimiser un site e-commerce e-commerce 20 Février 2017
Reduire et optimiser une requete sql Développement d'un site Web ou d'une appli mobile 8 Décembre 2016
Que signifie "optimiser une page pour un mot clef" ? Débuter en référencement 26 Novembre 2016
Optimiser le référencement de mon site Problèmes de référencement spécifiques à vos sites 28 Septembre 2016
Google "m'empêche" de désoptimiser... Problèmes de référencement spécifiques à vos sites 23 Septembre 2016
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice