Search Console Temps de téléchargement d'une page

WRInaute discret
Bonjour,

Je suis dans le nettoyage de l'index google et je surveille de près mes logs.

Su SC je constate un temps de téléchargement de page en baisse, mais je ne comprends pas pourquoi ! J'avais des temps élevés au mois de juillet et jusqu'à la semaine dernière (entre 500 ms et 800 ms) et je pensais que c'était due à un nombre important de redirection 301 mise en place dans mon htaccess.

Je prenais mon mal en patience sachant qu'il faut un certains temps à google pour digérer l'information et espacer les crawls de pages redirigées.

Les choses se calmant un peu, j'ai décidé de lacher la bride dans mon robots.txt et laisser google crawler quelques ressources supplémentaires afin qu'il mette son index à jour en supprimant des css et js disparues. (ce sont ces ressources que j'avais bloqué afin d'y voir plus clair dans un premier temps)

Je me suis donc retrouvé avec plein de 410. Ce sont des css et js qui n'existent plus et j'avais préparé le terrain.

Les temps de téléchargement de page ont chuté. Cela concordent avec la modification du fichier robots.txt.

Le ratio de page en 200 et en 301 n'a pas évolué par rapport à la période précédente. Je suis passé de 650 ms le 15/08 à 450 ms le 21/08 et c'est descendu le 24/08 à 353 ms. Alors je ne m'explique pas cette diminution des temps de téléchargement. La seule info

Je souhaite savoir si quelqu'un sait exactement quelles types de ressource google utilise (html, js, css, pdf,.doc, .jpg, .png) pour calculer son temps de téléchargement de pages et quels codes il prend en considération (200,404/410,304, 301...) Prend-il en compte le temps de réponse du serveur si une page est en 410 ou il ne tient pas compte du tout d'une ressource en 410.

J'ai beau essayer plusieurs hypothèses, je ne parviens pas à retomber sur quelque chose de cohérent au niveau des temps de téléchargement.

Je trouve que le serveur est lent sur SC alors qu'il est rapide avec un crawler comme xenu (entre 100 et 150 ms avec un vpn ), un test RM tech (temps de téléchargment 97%) ou simplement en testant le site en live (en mode navigation privé pour éviter le cache navigateur)

C'est un serveur vps avec wordpress. Il y a un cache et 95% des requêtes passent par le cache (WP Rocket pour ceux qui connaissent). Il peut arriver qu'une ressource ne soit pas en cache (par exemple une page média qui n'a pas été désindexée), mais c'est ponctuel (une ou deux fois par jour).
 
Olivier Duffez (admin)
Membre du personnel
Je ne sais pas si Google est déjà rentré dans autant de détails (sur les codes HTTP). En les questionnant, j'ai pu savoir que ce rapport est calculé à partir de la moyenne de tous les documents crawlés par Google le jour concerné.
Contrairement à ce que pas mal de monde pense, ça ne se limite pas aux pages HTML, si bien que des images petites ou des CSS peuvent réduire la moyenne, quand des grosses images ou des PDF trop lourds peuvent l'augmenter fortement.
 
WRInaute discret
Les css peuvent réduire la moyenne. Dans ce cas cela pourrait expliquer la baisse soudaine. Ces derniers jours google s'est mis à crawler beaucoup de css et js provanant de pages obsoletes (en referer) mais qui existe toujours.

J'avais aussi remarqué que lorsqu'il y a beaucoup d'images crawlées ca fait baisser la moyenne de façon significative. L'explication est probablement là.
 
Discussions similaires
Haut