l'affichage de la date et le passage de google

Nouveau WRInaute
le fait d'afficher tout le jour la date sur son site joue -t il sur le passage de Google.

Google prend -t -il en compte le changement comme une mise à jour régulière?
Cela permet-il de faire passer plus souvent google sur les pages(en dehors de la google dance bien sur)

merci
zombui :?
 
WRInaute occasionnel
Quel est l'interêt de vouloir plein de passage de Bots s'il n'y aucune modification sur tes pages (en dehors de la date) ?

Des passage fréquents sont intèressant pour que du contenu frais soit indexé rapidement. Si ce contenu est frais c'est qu'il y a eut des changement sur la page et il n'est donc pas nécessaire d'y ajouter des pseudo-modifications.

Ta question est paradoxale...

Mirgolth
 
WRInaute discret
Pas si paradoxal que ca a mon avis, une telle technique (encore faut-il qu'elle soit suivie par google) permettrait au contenu frais d'etre rapidement pris en compte par google independament de la frequece reelle de mise a jour du site...

Je m'explique:

- Google adapte la frequence de ses passages a la frequence des mises a jour constatees des pages
- Supposons (uniquement pour l'exemple) que la frequence de passage de google est egale a celle qu'il constate au niveau du contenu...

- Ainsi, si le contenu est mis a jour tous les mois, google passera une fois par mois...

- Ce qui fait un delai moyen pour l'indexation des nouveaux contenus de 2 semaines (a priori aucune synchronisation)

- En augmentant articificiellement la frequence de passage de Google a 1 fois par jour, le delai moyen d'indexation des nouveaux contenus passe a 12h bien que ceux-ci ne soient toujours mis a jour qu'une fois par mois...

J'espere avoir ete suffisament explicite concernant l'interet d'une telle methode... Je ne pense pas que Google se fasse avoir aussi facilement, en ce cas, si tout le monde faisait ca je ne pense pas qu'il pourrait tenir la cadence... Et ce sont les sites aux mises a jour quotidiennes qui en patiraient :-(

Olivier,

Autre discussion qui a derivee vers ce sujet: https://www.webrankinfo.com/forum/t/comportement-de-google-vis-a-vis-des-pages-imprimables.3965/
 
WRInaute impliqué
D'accord avec toi Qaghan sur l'intérêt de pouvoir augmenter la fréquence de visite de Googlebot...

Mais un simple changement de date sur les pages ne suffit pas.

La fréquence de passage des bots dépend de plusieurs facteurs, les "mises à jour" ne constituant que l'un de ces facteurs.

D'ailleurs il faut s'entendre sur ce que l'on entend par mise à jour : les changements dans l'arborescence (ajout de nouvelles pages, suppression de pages) sont peut-être aussi importants que le changement du contenu dans les pages.
 
WRInaute occasionnel
je confirme, la date ne change rien . J'utilise une include pour mon script et cela ne change absolument rien à la frequence de passage de googlebot, mais me permet de savoir les dates de maj après le crawl en regardant le cache.

André
 
WRInaute discret
Et alors : quel genre d'algo Google utilise-t-il pour voir les évolutions sur le contenu ?
Le checksum joue-t-il un rôle pour voir si "quelque chose" a bougé sur le site ?
Existe-t-il un sous-checksum par page du site ?
Le texte que l'on peut mettre dans un "calque" est-il analysé au même titre que du texte basic ?

Merci d'éclairer nos lanternes.
 
WRInaute discret
Je pense au checksum dont on parle souvent dans WRI, et qui est donné par exemple par ABC-PR.exe
Quel algorithme utilise Google pour savoir si un site évolue ou non ?
 
WRInaute passionné
D'après mon expérience je pense que Google se fie au changement d'une page. J'ai deux pages au même rank, l'une est toujours la même, l'autre évolue quasiment tous les jours. La page qui évolue est crawlée tous les jours alors que l'autre toutes les semaines environ. A mon vais puisque Google enregistre ces pages en cache, il doit simplement comparer les pages nouvelles avec celle qui sont dans son cache.
 
Olivier Duffez (admin)
Membre du personnel
il n'y a pas de rapport entre le checksum et les fréquences de mise à jour.
à ma connaissance le checksum ne change pas pour une URL donnée (en tout cas il n'a pas bougé depuis des mois)
 
WRInaute discret
Depuis la Dominique, je constate ceci.

Pendant le mois, je perds toute les semaine des pages (1300 en un mois) puis comme d'habitude, entre le 25 et le 6, je regagne tout ce que j'ai perdu pendant le mois.

De plus, avant GG réactualisait ma première page une fois par mois, maintenant (faudrait que je vérifie) mais ca à l'air d'être 2-3 fois par semaine, si pas tous les jours.

Ca bouge bien avec GG depuis cette dominique, je trouve.
 
WRInaute passionné
D'ailleurs a vorte avis elle s'appellera comment la prochaine Google dance? Je propose Enigma, car on on sait pas si elle sera ou quand elle sera
 
WRInaute impliqué
Mies Van der Rohe a dit:
D'après mon expérience je pense que Google se fie au changement d'une page. J'ai deux pages au même rank, l'une est toujours la même, l'autre évolue quasiment tous les jours. La page qui évolue est crawlée tous les jours alors que l'autre toutes les semaines environ.

Dauzac a dit:
Et alors : quel genre d'algo Google utilise-t-il pour voir les évolutions sur le contenu ?

En fait, Google fait une utilisation intensive du champ IMS (is modified since) du header http. Googleguy avait déjà signalé en oct/nov 2002 (je ne suis pas sûr de la date) que les serveurs dont l'IMS était down ou désactivé étaient lourdement pénalisés.

Dans ses dernières recommandations, Googleguy a à nouveau rappelé l'importance de l'IMS. En fait, le champ IMS a certainement pris encore plus d'importance depuis Esmeralda, puisque le crawling est permanent, et n'a plus ni début ni fin comme avec les deepcrawls. Donc, seules les pages "modifiées" d'après l'IMS sont "aspirées".

Le robot envoie une requete GET avec la date du dernier fichier connu. Si l'IMS indique que le fichier a été modifié depuis, le serveur renvoie un code 200 et le nouveau contenu. Si le fichier n'a pas été modifié, le serveur renvoie un code 304, et pas de contenu.

Le système est simple, économise la bande passante et raccourcit le temps de crawl.

Pour évaluer la fréquence de mise à jour, mon petit doigt me dit que seul les changements indiqués par l'IMS sont évalués. Inutile de faire plus compliqué, car les changements dans les pages ne sont que l'un des facteurs pris en compte, et la fréquence optimum de mise à jour de l'index, selon de savantes études, doit être supérieure à la fréquence de changement de pages.
 
WRInaute occasionnel
cariboo a dit:
Le système est simple, économise la bande passante et raccourcit le temps de crawl.
Ca se déguise facilement, toutes mes pages ont la ligne PHP suivante:
Code:
header("Last-Modified: " . gmdate("D, d M Y H:i:s") . " GMT"); // Always modified
Elles sont donc constament modifiée au sens de l'IMS.

Mirgolth
 
WRInaute passionné
Je suis dubitatif :)

Je ne pense pas que ce soit le seul critere. C'est un critere trop facile à modifier.
A mon avis, c'est combiné à une analyse de la taille du fichier par exemple.
Si on regarde plus loin, qu'elle est la date de modif d'un fichier php ?

Cela devrait être facile à vérifier pour ceux qui ont accès à leur serveur : quelles sont les requetes effectuées et quelles sont les fichiers effectivement DL.

François
 
WRInaute impliqué
Suede a dit:
Si on regarde plus loin, qu'elle est la date de modif d'un fichier php ?

C'est la date de dernière modif du source ... Sauf si le script de Mirgolth ou un équivalent
est employé, ce qui est conseillé... Par contre, déclarer que la page est modifiée à chaque requête, alors que ce n'est pas vrai, je ne trouve pas cela sympa ! :lol: :lol:

Cela devrait être facile à vérifier pour ceux qui ont accès à leur serveur : quelles sont les requetes effectuées et quelles sont les fichiers effectivement DL.

Justement, je ne balance que rarement les trucs sans savoir, donc cette remarque se base aussi sur l'observation de mes logs, après que Googleguy eut insisté de manière suspecte sur cette histoire d'IMS la semaine dernière :

Googleguy a dit:
Tip #1: Use If-Modified-Since (IMS). IMS lets your webserver tell Googlebot whether a page has changed since the last time the page was fetched. If the page hasn't changed, we can re-use the content from the last time we fetched that page. That in turn lets the bot download more pages and save bandwidth. I highly recommend that you check to see if your server is configured to support If-Modified-Since. It's an easy win for static pages, and sometimes even pages with parameters can benefit from IMS.
 
WRInaute occasionnel
cariboo a dit:
Par contre, déclarer que la page est modifiée à chaque requête, alors que ce n'est pas vrai, je ne trouve pas cela sympa ! :lol: :lol:
Je précise que le but est que les pages dynamiques ne soient pas misent en cache comme conseillé sur http://www.php.net/header
Etant chez AOl, j'avais beaucoup de mal à tester les modifs de mes pages avant de mettre ça en place car les proxies AOL me renvoyant des vielles pages misent en cache :evil:

Mirgolth
 
WRInaute impliqué
Mirgolth a dit:
Je précise que le but est que les pages dynamiques ne soient pas misent en cache comme conseillé sur http://www.php.net/header

Je m'en doutais un peu, donc ma remarque était vraiment "gratuite" : je le fais aussi sur des pages dynamiques dont la vitesse de modification est supérieure aux délais d'expiration par défaut des browsers.

D'ailleurs, j'ai eu récemment un gag avec un de mes serveurs, dont l'horloge est en retard : la réponse de l'IMS est fausse, et dans ce cas là, la page reste en cache malgré tout...
Beuh...

Y'a toujours quelque chose pour vous pourrir la vie...
 
Discussions similaires
Haut