Google et double crawl

WRInaute accro
Bonjour,

Qqun pourrait il m'expliquer pourquoi Google demande systematiquement deux fois la même page à la suite lors des crawl ?

Dans mes stas :

66.249.66.107 PTR record: crawl-66-249-66-107.googlebot.com (c'est bien lui)

542143 /cache/condor_500_ci.php 66.249.66.99 2006 July 12 22:09:28
542142 /cache/condor_500_ci.php 66.249.66.108 2006 July 12 22:09:28

Quand c'est pas trois fois :

542100 /cache/4500boston.php 66.249.66.107 2006 July 12 22:04:58
542099 /cache/4500boston.php 66.249.66.108 2006 July 12 22:04:58
542098 /cache/4500boston.php 66.249.66.108 2006 July 12 22:04:58

ça ne me gêne nulement d'autant que j'ai pas besoins de scruter les IP pour reperer son passage, (ça fait des pointes de fou sur mes graph) mais je comprend vraiment pas.

J'ai imaginé qu'il chargeais la page avec deux machines différentes pour voir si il y a changement d'une foie a l'autre (mais c'est trop raproché dans le temps) ou encore j'ai pensé qu'il testait pour voir si je servais le même contenu a deux IP differentes ??? mais aucune de mes supositions ne tiens la route a mon sens.

Avez vous une idée ????
 
WRInaute accro
Leonick a dit:
il n'y aurait pas un HEAD pour la 1° ligne et un GET pour la 2° ?

ba non et ça expliquerai pas les coups a trois passes :D

parkinson peut être en effet.

ça date pas d'aujourd-hui et cela fait un moment que j'ai constaté le truc.

est ce pareil chez vous ?
 
WRInaute accro
C'est comme pour les rasoirs à main :?:
Le premier passage attrape la page web, le 2° la retient avant qu'elle ne se rétracte et le 3° la garde en mémoire,non :lol:
 
WRInaute impliqué
De nos jour il y a de plus en plus de pages dynamiques c'est surement uniquement un control pour voir si il y a des changements massifs dans la page d'un chargement à un autre et ainsi considérer cette page comme fiable.
Pour les trois passages ce ne serait pas justement sur une page ou il y aurait une partie aléatoire comme une bannière par exemple, là il lui faudrait un coup de plus.

Ce ne sont que des hypothéses.

A+
 
A
Albert1
Guest
f_trt a dit:
De nos jour il y a de plus en plus de pages dynamiques c'est surement uniquement un control pour voir si il y a des changements massifs dans la page d'un chargement à un autre et ainsi considérer cette page comme fiable.
c'est rigolo çà ... parce que j'expérimente un <title> aléatoire sur une "homepage" ...
on verra :D
mais pour le moment, le résultat n'est pas dégueu.
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut