[officiel] Google tient compte de la vitesse pour le positionnement

WRInaute accro
Je me posais en effet cette question.
Disons que c'est sans doute un critère parmi plein d'autres, rien de primordial.
 
Nouveau WRInaute
Pour ma part, je pense que c'est une fausse nouvelle : un site plus rapide est forcement plus apprécié par Googlebot qu'un site lent (plus facile à crawler donc plus facile à indexer,...)
 
WRInaute discret
bee_human a dit:
Un site rapide est-il un site pertinent ?.

C'est surtout que site rapide = "grosse" société derrière car ayant les moyens financiers d'avoir une bonne infrastructure,
donc site d'une grosse société = résultats pertinents pour Google.
 
WRInaute accro
Le message que souhaite faire passer Google depuis un petit moment me semble clair. Un site qui se charge rapidement contente les internautes mais surtout libère des resources pour Google.

Plus que jamais, le temps c'est de l'argent.
 
WRInaute accro
fabor a dit:
bee_human a dit:
Un site rapide est-il un site pertinent ?.

C'est surtout que site rapide = "grosse" société derrière car ayant les moyens financiers d'avoir une bonne infrastructure,
donc site d'une grosse société = résultats pertinents pour Google.

Hum... je connais un certain gros blog de JM qui met pas mal de secondes pour se charger et quand je dis pas mal, c'est pas mal...

Non je crois surtout que cela va "alléger" les pages des "gros" qui avaient pris l'habitude d'en coller une flopée dès l'accueil, et qui du coup ils vont se mettre à la "page" :-D
 
WRInaute accro
Dites-moi si je me trompe mais la compression est utilisée uniquement pour permettre aux pages lourdes d'être + rapidement crawlées?
Donc à votre avis, à partir de combien de Ko, est-il nécessaire de compresser?
J'ai des sites qui tournent entre 200 à 300 Ko par page... ce n'est pas la peine de compresser le site... si?

Merci ;)
 
WRInaute accro
200KO par page c'est beaucoup trop gros le miens excepter la map google fait 14.32 Ko.

et se charge entre :

Type de connexion Délai de connexion
56K=================== 2.16 seconde(s)
DSL===================0.18 seconde(s)
Câble/T1==============:0.07 seconde(s)
T3====================:0.00 seconde(s)
Taille totale de la page (y compris les codes HTML et les images) : 14.32 Ko

bon rajouter quelque pounième de seconde pour le chargement complet de la map google.

d'après GWT PERFORMANCE de site en moyen mon site se charge globalement en 0.7 Seconde dont 1.1 Seconde pour se qui est de la racine du site c'est à dire l'a page d'accueil de http://mipc.fr/ .
 
WRInaute accro
merci mipc... écoutes, je veux bien mais avec webdevelopper, il me sort sur ta racine ceci 8O


donc un p'tit soucis de compression?
Bah si 300 Ko c'est beaucoup pour toi... alors là :)
 
WRInaute accro
passion a dit:
merci mipc... écoutes, je veux bien mais avec webdevelopper, il me sort sur ta racine ceci 8O


donc un p'tit soucis de compression?
Bah si 300 Ko c'est beaucoup pour toi... alors là :)

j'avais bien dit sans compter google maps, la tu compte tous y compris des CSS et des JS externe qui ne concerne en rien ni ma page ni ma volonté vue que je suis dépendant d'un truc que je ne maitrise pas c'est à google de faire les choses correctement, du reste se qui est envoyer par mon Serveur HTTP, fait dans les 43KO sans compter la compression, et c'est se qui compte.
 
WRInaute passionné
Est-ce qu'un site rapide est plus pertinent ? non...

Si le site A est plus pertinent que le site B, mais le site A est 2s plus lent, je pense que le site A a plus sa place devant le site B !

Dans le webmaster tools, est-ce que vos sites arrivent dans la zone RAPIDE ? Moi non...
sanstitre1tv.jpg
 
WRInaute accro
Je suis d'accord avec toi mais en définitif malgré ta volonté de réduire le poids de ta page, elle fait tout de même + de 700 Ko !
Le crawl est pris sur une page entière et non élément par élément donc que ce soit un service de google ou pas... à vérifier s'il tient compte que ceux sont ses propres services qui ralentissent une page ;)
 
WRInaute accro
twin a dit:
Est-ce qu'un site rapide est plus pertinent ? non...

Si le site A est plus pertinent que le site B, mais le site A est 2s plus lent, je pense que le site A a plus sa place devant le site B !

Dans le webmaster tools, est-ce que vos sites arrivent dans la zone RAPIDE ? Moi non...
sanstitre1tv.jpg


oui certaines pages y arrive, pas toutes:

 
Olivier Duffez (admin)
Membre du personnel
d'après Google, ce critère a un impact dans 1% des requêtes, pas de quoi s'exciter non ?
je me dis que Google baisse les sites (en positionnement) qui sont vraiment trop lents, mais ce n'est que mon humble avis, je n'ai fait aucun test
 
WRInaute impliqué
WebRankInfo a dit:
d'après Google, ce critère a un impact dans 1% des requêtes, pas de quoi s'exciter non ?
je me dis que Google baisse les sites (en positionnement) qui sont vraiment trop lents, mais ce n'est que mon humble avis, je n'ai fait aucun test

Je suis d'accord : c'est plutot une prise en compte au sens de pénalité pour les sites "trop" lents, que le contraire. Si un internaute clique sur un lien des résultats de recherche google, et revient quelques secondes plus tard sans que la page précédente ait été chargée, c'est la qualité des résultats Google qui est en danger.
Comme ce critère est très vague et subjectif, peut être faut-il regarder du côté de GWT : si son site est au moins plus rapide que plus de 50% des sites : pas de quoi s'inquiéter, si plus rapide que 10%, mieux vaut passer un peu de temps à optimiser le chargement des pages.
 
WRInaute accro
passion a dit:
Je suis d'accord avec toi mais en définitif malgré ta volonté de réduire le poids de ta page, elle fait tout de même + de 700 Ko !
Le crawl est pris sur une page entière et non élément par élément donc que ce soit un service de google ou pas... à vérifier s'il tient compte que ceux sont ses propres services qui ralentissent une page ;)

ben je leur avait dit j'avais même énumérer tous se que google pagespeed conseils de faire et que si il était pas capable d'appliquer à eux même leurs propre recommandation, c'est que c'est du foutage de gueule et que y a un gros problème :mrgreen:
 
WRInaute passionné
Merci pour vos réponses.
En effet c'est certainement pour les sites lents que cela s'applique.
 
WRInaute accro
@passion y fais 702KO avec compression et 988KO sans compression mon site maintenant, à se rythme il devrait bien pourvoir faire moins de 700KO avant la fin du mois ou de l'année, plutôt de l'année.

est ce qu'il y a un moyen de réduire encore la taille et est ce que la compression Gzip est à sont maximum ou on peux compresser encore.
 
WRInaute impliqué
mipc a dit:
@passion y fais 702KO avec compression et 988KO sans compression mon site maintenant, à se rythme il devrait bien pourvoir faire moins de 700KO avant la fin du mois ou de l'année, plutôt de l'année.

est ce qu'il y a un moyen de réduire encore la taille et est ce que la compression Gzip est à sont maximum ou on peux compresser encore.

Le temps de chargement n'est pas du tout proportionnel à la taille des fichiers.
 
WRInaute accro
fabor a dit:
bee_human a dit:
Un site rapide est-il un site pertinent ?.

C'est surtout que site rapide = "grosse" société derrière car ayant les moyens financiers d'avoir une bonne infrastructure,
donc site d'une grosse société = résultats pertinents pour Google.
déjà, il faudrait définir ce qu'est un site rapide, et rapide pour qui ? pour les robots ? d'accord, mais quid des visiteurs qui, pour un effet web 2.0 est obligé de se taper le chargement de 5 scripts js avant même que la page ne soit affichée ? mais ça, ça n'est pas compté comme temps de téléchargement, ensuite on rajoute tous les scripts (pub, cartographie, météo, ...) externes qui augmentent encore le temps de chargement, voire même le son et une vidéo. Bref de quoi bien plomber le temps de mise en activité de la page :wink:
Ensuite, si tu factorises bien tes css et tes scripts, voire les images des bandeaux, et que ton serveur est bien configuré, le navigateur utilisera son cache pour une grande partie de ses requêtes, d'où un temps moindre dès la 2° page
 
WRInaute accro
Bigb06 a dit:
mipc a dit:
@passion y fais 702KO avec compression et 988KO sans compression mon site maintenant, à se rythme il devrait bien pourvoir faire moins de 700KO avant la fin du mois ou de l'année, plutôt de l'année.

est ce qu'il y a un moyen de réduire encore la taille et est ce que la compression Gzip est à sont maximum ou on peux compresser encore.

Le temps de chargement n'est pas du tout proportionnel à la taille des fichiers.

ben je me doute bien, mais en règle général, si un fichier est plus petit y a de forte proportion pour que se dernier se charge rapidement, mais si ça ne fait pas tous.

déjà que moi avec mon script google maps ASYNC j'en prends plein à la tronche.

si ça peut aider se sera mieux que rien!!!!!

ÉDIT: à oui certaines minifacation de page HTML via google pagespeed sont non compatible google CHROME, j'ai essayer sur la page d'accueil de mon site et ça ne marche pas sous google chrome.
 
WRInaute passionné
J'ai essayé de suivre le maximum de recommandation pour réduire le volume de données et le temps de traitement PHP, j'ai supprimé des JS pas forcément utiles mais c'est pas évident d'accélérer le chargement sans supprimer des images ou autre.

Après avoir exploré pas mal de pistes je me demande s'il ne faudrait pas prendre un serveur dédié. La question que je me pose : un serveur dédié apporte-t-il un plus pour la rapidité de chargement du contenu?
 
WRInaute occasionnel
Il faudrait un membre dévoué ayant un site déjà bien établi qui s'amuse à passer le poid des ses page de xxx ko à xxxx ko histoire de mesurer si impact il y à ou non.

Qui s'y jète ?
 
WRInaute discret
WebRankInfo a dit:
d'après Google, ce critère a un impact dans 1% des requêtes, pas de quoi s'exciter non ?
je me dis que Google baisse les sites (en positionnement) qui sont vraiment trop lents, mais ce n'est que mon humble avis, je n'ai fait aucun test

On insuffle une nouvelle tendance à mon avis.
Step 1 : peut-être
Step 2 : on confirme mais ça ne sera pas bien grave
Step 3 : on fait maigrir son site ou on est filtré
j'en suis d'autant plus convaincu que les raisons sont plus profondes et économiques.

Les premiers commentaires dans cette file donnent immédiatement raison à Google dans son approche qui saura sur quel levier il peut agir en cas de beoins.

Il faut tout de même se souvenir des habitude dans la Google Com'. Au début seuls les duplicate content vraiment grossiers étaient sanctionnés...

c'est un point de vue...
 
WRInaute passionné
Quoi qu'il en soit, améliorer les temps de chargement est une bonne chose pour l'expérience utilisateur ... et pour le taux de rebond :mrgreen:

Pour répondre à une question posée, le poids des élément n'est pas l'unique critère. Le nombre d'éléments est aussi important car il faut tenir compte de l'ensemble du processus : envoi de la requête, réception de la requête, traitement de la requête, et renvoi du résultat.

Il y a de fortes chances que sur la majorité des serveurs une image de 10ko soit plus rapidement chargée que 10 images de 500 octets.

Ensuite pour répondre à une autre question demandant de savoir ce que Google prenait en compte pour le calcul, il vous suffit de regarder vos logs pour voir si googlebot effectue des requêtes sur vos css et autres js :wink:

Personnellement, je lui refuse l'accès aux images miniatures (aucun intérêt de les indexer) certes j'utilise le robot.txt mais l'expérience montre qu'il n'essaye pas de les charger, ni même de les pinguer, il me semble donc difficile de calculer réellement le poids d'une page avec tous ces objets et d'en déduire un temps de chargement.
 
WRInaute passionné
encore du vent de gg qui met la pression aux webmasters afin d'économiser leurs serveurs et baisser leur facture d'électricité sur notre dos.

c'est la crise et les investissements d'équipements ne sont d'actualité pour personne donc GG joue sur sa comm' (ma foi elle est bonne sa comm')
 
WRInaute occasionnel
encore du vent de gg qui met la pression aux webmasters afin d'économiser leurs serveurs et baisser leur facture d'électricité sur notre dos.

Aussi, mais il ne faut pas oublier que la principale source de revenu de google c'est la satisfaction client, un client non satisfait c'est un client qui pourras ce laisser bercer par les sirène bing et donc là ils vont perdre de l'argent...

De plus il on dit temps de chargement et non poids de la pages... Si vraiment c'était pour économiser sur le crawl, alors il aurais sanctionner le poids... Car le temps de chargement n'est pas un gros problème pour google. Les crawler son multi-thread. C'est à dire qu'il charge X pages en même temps... Alors si les pages son lente 20% plus lente à charger, alors il faut lancer x*1.2 thread à la fois... Ce qui est vraiment bloquants dans un processus de crawl c'est la bande passante, et le tant de traitement de l'information. C'est à dire que s'il voulais vraiment faire des économie d'échelle ils sanctionnerais le contenu;)

PS : Cela vas peut-être donner une second vie au duplicate contente... Si vous repérer un site bien, mais très long, on leur pique tout leur contenut que l'on met sur une plateforme performante. Est on passeras peut-être devant;)
 
WRInaute impliqué
Comme déjà dit, c'est une bonne chose. Cependant, je ne pense pas que Google va influencer le résultat en fonction de la rapidité. Mais plutôt pénaliser ces résultats si le site s'avère particulièrement long.

Concrètement, si on met 3heures à charger la page : le site dégage ( et ça me fait plaisir ).
Si une page se charge en 0.75 et un autre en 0.6, je doute que cela change quelque chose au final.
 
WRInaute discret
acamar a dit:
Mauvaise nouvelle ! Les graphiques dans GWT vous révèle quoi ?
Ça m'a toujours affiché n'importe quoi.
Ça m'affiche 0.5 secondes dans la navigation de GoogleBot, et 8.5 secondes dans le Labo (performances du site).
Et je sais que mes pages s'affichent en 1.5 secondes environ.
 
WRInaute accro
les informations données dans le labo dans performance du site, c'est une moyenne globale de tout le site, sur un tableau représentative des pages les plus vues, donc si y a des pages plus lente que d'autre ça peux varier et parfois beaucoup, de plus si tu à des truc en chargement asynchrone comme un carte google maps qui s'affichent sur certaines page de ton site, ça aussi c'est comptabiliser!!!!
 
WRInaute passionné
mipc a dit:
les informations données dans le labo dans performance du site, c'est une moyenne globale de tout le site, sur un tableau représentative des pages les plus vues, donc si y a des pages plus lente que d'autre ça peux varier et parfois beaucoup, de plus si tu à des truc en chargement asynchrone comme un carte google maps qui s'affichent sur certaines page de ton site, ça aussi c'est comptabiliser!!!!

Oui j'en ai pas mal :wink:
 
WRInaute impliqué
J'ai checké avec Firebug un de mes sites qui a facebook connect, j'avais pas remarqué que ça faisait grave ramé la page.

N'est ce pas aussi un tacle à Facebook avec le facebook connect ? sans devenir parano ;-)

maintenant ça me fait réfléchir sur le fait d'enlever le FB connect ou pas.
 
WRInaute discret
mipc a dit:
les informations données dans le labo dans performance du site, c'est une moyenne globale de tout le site, sur un tableau représentative des pages les plus vues, donc si y a des pages plus lente que d'autre ça peux varier et parfois beaucoup, de plus si tu à des truc en chargement asynchrone comme un carte google maps qui s'affichent sur certaines page de ton site, ça aussi c'est comptabiliser!!!!
Bah, aucune de mes pages accessibles par Google ne met plus de 2.5 secondes à s'afficher, la majorité est en cache.
Et même quand j'affiche une page sans cache, ça dépasse pas les 3 secondes. Je suis sûr que Google y est pas du tout, ou alors ils affichent les temps pour une connexion 56k.
Pas de cartes GMaps sur mon site. Il y a une image de Google CSE, du Analytics et du AdSense.
Rien qui justifie les plus de 5 secondes factices du labo. (y'a même des pointes à 40+ secondes sur le graphe, je sais pas pourquoi, ça ne coincide pas avec les périodes d'outage)
 
WRInaute occasionnel
Topsitemaker a dit:
J'ai checké avec Firebug un de mes sites qui a facebook connect, j'avais pas remarqué que ça faisait grave ramé la page.
N'est ce pas aussi un tacle à Facebook avec le facebook connect ? sans devenir parano ;-)
maintenant ça me fait réfléchir sur le fait d'enlever le FB connect ou pas.

Perso je me tâtais à enlever le fb connect et la fan box depuis quelques temps. Et bien c'est la première optimisation que j'ai fait suite à cette annonce. La fan box était une horreur en terme de délai de chargement et d'optimisation du code.
 
WRInaute accro
artscoop a dit:
mipc a dit:
les informations données dans le labo dans performance du site, c'est une moyenne globale de tout le site, sur un tableau représentative des pages les plus vues, donc si y a des pages plus lente que d'autre ça peux varier et parfois beaucoup, de plus si tu à des truc en chargement asynchrone comme un carte google maps qui s'affichent sur certaines page de ton site, ça aussi c'est comptabiliser!!!!
Bah, aucune de mes pages accessibles par Google ne met plus de 2.5 secondes à s'afficher, la majorité est en cache.
Et même quand j'affiche une page sans cache, ça dépasse pas les 3 secondes. Je suis sûr que Google y est pas du tout, ou alors ils affichent les temps pour une connexion 56k.
Pas de cartes GMaps sur mon site. Il y a une image de Google CSE, du Analytics et du AdSense.
Rien qui justifie les plus de 5 secondes factices du labo. (y'a même des pointes à 40+ secondes sur le graphe, je sais pas pourquoi, ça ne coincide pas avec les périodes d'outage)


de toute façon rien de mieux que de faire la vérification de chacune des pages du site depuis WEBWAIT.COM et voir même depuis chaque navigateur, et surtout depuis une connexion représentative de tes visiteurs, à savoir à quels vitesse de connexion se connecte les visiteurs de ton site en moyen et faire une pondération( certains sont plus lent, mais ping plus faible, d'autres sont très légèrement plus rapide mais on un ping nettement plus grand, et d'autre facteur lie au routage qui va varier le ping et le débit au cour de la journée entre chaque visiteurs qui peuvent fausser les résultat, suivant la charge du réseau ) de la moyen obtenu, en suite une fois trouver la vitesse de connexion moyen pondérer, faire un teste de chaque page du site depuis chaque navigateur représentatifs des visiteurs via WEBWIAT.com.
 
WRInaute passionné
artscoop a dit:
Bah, aucune de mes pages accessibles par Google ne met plus de 2.5 secondes à s'afficher, la majorité est en cache.
Et même quand j'affiche une page sans cache, ça dépasse pas les 3 secondes. Je suis sûr que Google y est pas du tout, ou alors ils affichent les temps pour une connexion 56k.

On a surement pas la même vitesse de connexion car chez moi c'est 9.81 sec pour la page d'accueil du site de ton profil (sans cache) et je n'ai pas une liaison 56 ko ! :wink:
 
WRInaute passionné
mipc a dit:
artscoop a dit:
mipc a dit:
les informations données dans le labo dans performance du site, c'est une moyenne globale de tout le site, sur un tableau représentative des pages les plus vues, donc si y a des pages plus lente que d'autre ça peux varier et parfois beaucoup, de plus si tu à des truc en chargement asynchrone comme un carte google maps qui s'affichent sur certaines page de ton site, ça aussi c'est comptabiliser!!!!
Bah, aucune de mes pages accessibles par Google ne met plus de 2.5 secondes à s'afficher, la majorité est en cache.
Et même quand j'affiche une page sans cache, ça dépasse pas les 3 secondes. Je suis sûr que Google y est pas du tout, ou alors ils affichent les temps pour une connexion 56k.
Pas de cartes GMaps sur mon site. Il y a une image de Google CSE, du Analytics et du AdSense.
Rien qui justifie les plus de 5 secondes factices du labo. (y'a même des pointes à 40+ secondes sur le graphe, je sais pas pourquoi, ça ne coincide pas avec les périodes d'outage)


de toute façon rien de mieux que de faire la vérification de chacune des pages du site depuis WEBWAIT.COM et voir même depuis chaque navigateur,

WEBWAIT est en désaccord total avec les chiffres du labos 8O
 
WRInaute accro
depuis ce we, j'ai mis en place sur mes serveurs la compression.
Je vais surveiller d'ici la semaine prochaine si dans mon GWT, la vitesse de crawl a augmenté et si cela a une impacte sur mes sites en terme de positionnements.
Cela m'a permis de me rendre compte que sur un de mes sites, j'avais zappé de changer mes images "png" en "jpg" donc niveau Ko j'en étais arrivé à + de 900 Ko 8O
Alors maintenant c'est nickel, je suis à 120 Ko + la compression donc j'attends une semaine (le temps que le bot passe plusieurs fois pour faire une maj de mon GWT) et j'espère voir d'ici une semaine si cela a été bénéfique ;)
 
WRInaute discret
detectimmobilier a dit:
WEBWAIT est en désaccord total avec les chiffres du labos 8O
Idem. Pour ma part c'est sans appel : 1,30s pour Webwait et Chrome (et je trouve que c'est plus lent que prévu) et 10,0s 8O pour GWT.
 
WRInaute accro
une question : un site 100% flash avec un html très très light va avoir un temps de chargement très faible (pour les bots) alors que pour l'internaute, il faudra attendre le chargement du flash et, surtout, de tous les fichiers appelés, du genre 5 Mo d'AVI et ça, ça n'est pas compté par google.
Donc établir une correspondance entre vitesse de chargement pour un bot et vitesse d'opérationnalité pour un internaute, me parait très peu sur
 
WRInaute passionné
un de mes dernier site :
webmastertool.jpg

et pourtant, aucune optimisation "pousée" particulière... je dirais même un peu chargé...html + quelques traitement php + flash + javascripts... :mrgreen:


[edit]
je viens de checker, pour 80% de mes site dévellopé maison => c'est du même accabit, dès qu'il y à du CMS dans le coins...
=> lent, curieux....
sachant que lent ou rapide, les sites restent positionné correctement... donc pas évident de voir l'impact...
[/edit]
 
Nouveau WRInaute
Salut tous le mondeeee :D

Petite question les amis,

Imaginons un site programmé avec les pieds, gourmand en ressource serveur,

MAIS imaginons que ce site soit sur un serveur tres puissant, et donc qu'il s'affiche vite malgré sa programmation pourri,

Pour Google c'est ok ?

Merci :wink:
 
WRInaute passionné
dansmabuzzbuzzbuzz a dit:
Salut tous le mondeeee :D

Petite question les amis,

Imaginons un site programmé avec les pieds, gourmand en ressource serveur,

MAIS imaginons que ce site soit sur un serveur tres puissant, et donc qu'il s'affiche vite malgré sa programmation pourri,

Pour Google c'est ok ?

Merci :wink:


Oui, c'est le temps de réponse qui importe pas la charge de traitement.
 
WRInaute accro
pcamliti a dit:
Ok mais comment optimiser les codes de GA ?
Il est possible de l'héberger en local.
Ce n'est pas conseillé mais pas défendu.
L'essentiel est de s'assurer que le ga.js soit à jour.
L'idéal serait un script qui comparerait la version hébergé en local avec celle sur le serveur Google. A raison d'une ou deux fois par jour.

Qui s'y met :)
 
WRInaute accro
salva a dit:
pcamliti a dit:
Ok mais comment optimiser les codes de GA ?
Il est possible de l'héberger en local.
Ce n'est pas conseillé mais pas défendu.
L'essentiel est de s'assurer que le ga.js soit à jour.
L'idéal serait un script qui comparerait la version hébergé en local avec celle sur le serveur Google. A raison d'une ou deux fois par jour.

Qui s'y met :)


je l'ai mis dans en local, et je n'ai pas constater de problème:

https://www.webrankinfo.com/forum/rapidite-site-est-pas-encore-critere-expl ... l#p1148243

celui qui pourrait t'aider à faire se que tu veux faire, c'est: https://www.webrankinfo.com/forum/compte/personal-details?i=pm&mode=compose&action=quotepos ... &p=1150250

qui apparemment via un script PHP vérifie ou télécharge(je sais plus) tous les jours le script GA via un script PHP.
 
WRInaute impliqué
J'ai gagné 1 secondes (sur 1.3 secondes) du chargement d'une page en désactivant facebook connect.

Bon moment Google a intérêt de me donner des places :cool:
 
WRInaute passionné
avec ce nouveau truc on va vite se retrouver avec des pages toutes moches sans images, sans css, sans js, sans flash, ...
 
WRInaute accro
forty a dit:
avec ce nouveau truc on va vite se retrouver avec des pages toutes moches sans images, sans css, sans js, sans flash, ...


ça m'arrange je suis déjà à la page avec mon site, bon il est tous moche et alors il est fonctionnel!!!!! :mrgreen:
 
WRInaute accro
tout doux tou doux, ça à peut etre pas commencer à faire effet, attendons de voir les stat du moi d'avril ou de MAI!!!!
 
WRInaute passionné
skyll, c'est quoi le secret? un méga serveur dédié, des optimisations particulières?
je veux bien avoir l'url du site (en MP si tu veux).
 
WRInaute passionné
forty a dit:
skyll, c'est quoi le secret? un méga serveur dédié, des optimisations particulières?
je veux bien avoir l'url du site (en MP si tu veux).
ben c'est bien ce que j'ai dit... pas d'optimisation particulière (à part sur le poids des images, la taille des css, js et du flash que j'ai volontairement réduite au max) le serveur est un pure mutualisé de base... html type table + css (pas de 100%css)
et voila le graph... j'y croyait pas :wink:

mais mystère, à côté de ca, mon www est à 40% dans le lent... alors qu'il est tout optimisé...
va comprendre :mrgreen:
 
WRInaute accro
t être aussi que pour le moment google performance du site, ne vois pas le chargement de certains truc, mais qu'a terme ils seront surveiller comme le FLASH et d'autre truc du style IFRAME!!!
 
WRInaute occasionnel
skyll a dit:
le serveur est un pure mutualisé de base... html type table + css (pas de 100%css)
et voila le graph... j'y croyait pas :wink:

[mode couverture troll]
C'est surtout les annonces seo-médiatiques non argumentées de Google qu'il ne faut pas croire :mrgreen:
S'ils sont si forts que ça et que la vitesse est un élément indiscutable parce que ceci ou cela, qu'ils le disent clairement et explicitement au lieu de jouer aux politiciens/journalistes là :lol:
[/mode couverture troll]
 
WRInaute occasionnel
Et puis s'ils veulent un Internet rapide, ils n'ont qu'à le créer eux-mêmes chez Google, je pense qu'ils ont assez de moyens :mrgreen:
 
WRInaute accro
forty a dit:
avec ce nouveau truc on va vite se retrouver avec des pages toutes moches sans images, sans css, sans js, sans flash, ...

Whaou, tu veux dire des pages avec uniquement du contenu ?
J'en rêve ! ;)
 
WRInaute accro
petite modification dans GOOGLE WEBMASTER TOOLS dans le labos dans PERFORMANCE DU SITE, une partie des information sur les poids des pages et les conseils des pages ont disparus!!!!!!
 
WRInaute discret
Vue d'ensemble des performances
En moyenne, les pages de votre site se chargent en 21,3 secondes (dernière mise à jour : 3 mai 2010). Plus lent que 100 % des sites La précision de ces estimations est élevée (plus de 1000 points de données). Le graphique suivant indique l'évolution du temps de chargement moyen des pages de votre site au cours des derniers mois. Il compare également ces performances avec les 20 sites les plus lents et les plus rapides.

temps.jpg


On vient de changer de serveur, appliquer un cache php, bref le temps de chargement des pages a été divisé par 3
apparemment, webmastertools n'est pas d'accord... je serais donc le plus lent du web :mrgreen:
 
WRInaute passionné
Je suis content de trouver enfin pire que moi. Désolé. :D

Je suis à :
En moyenne, les pages de votre site se chargent en 8,3 secondes (dernière mise à jour : 3 mai 2010). Plus lent que 87 % des sites La précision de ces estimations est élevée ...

oO
 
WRInaute discret
1-sponsor a dit:
Je suis content de trouver enfin pire que moi. Désolé. :D

bah faut pas :mrgreen: Nos optimisations on bien été vues par GG qui crédibilise bien mieux et bien plus de pages depuis.
a mon humble avis les temps de webmastertools sont bidons.
 
WRInaute passionné
encore un rubik's cube que google nous balance histoire qu'on se casse un peu la tête avec :)
 
WRInaute passionné
Perso j'ai des bons résultats sur Webmaster Tools (plus rapide que 9* % des sites sur tous mes sites) mais je m'aperçois aussi que des sites plus "lent" mais hébergés aux Etats-Unis sont encore plus rapide, simple à cause du "ping" US <=> FR...
Code:
ping un_site_herbergé_aux_etats-unis_depuis_la_france
PING aa (69.64.xx) 56(84) bytes of data.
64 bytes from aa (69.64.xx): icmp_seq=1 ttl=56 time=99.6 ms
et pareil dans l'autre sens...
Je sais pas si google soustrait cette latence ou non, mais bon, dans ce cas là, on ne peut être que "pire".

Et pour confirmer l'histoire de la migration:
chart


Tout pareil... Bien bien abusé sachant que le site n'a pas été hors ligne ni ralenti une seule seconde...

Bon, j'ai rechangé de serveur hier soir, on verra bien ;)
 
Discussions similaires
Haut