Indexation depuis bigdaddy

WRInaute discret
Salut à tous,

J'ai une petit question à vous soumettre

Depuis bigdaddy nous savons que les bots adsens peuvent fournir leur résultats au googlebot classiques. Un partage des informations bien vu limitant du même coup les visites des bots sur google.

J'ai remarqué en suivant attentivement et jour après jour les nouvelles indexations des pages de mon site que seul la visite des bots classiques permettent l'indexation de nouvelles pages. Les bot adsens se contentent de réactualiser le cache de pages déjà existante.

Avez-vous fait des constatations identiques ou opposées ?
 
WRInaute accro
j'ai l'impression qu'il y a qq incompréhensions sur ces histoires de cache ... Google utilise un simple système de cache sur ses DC, cela veut dire que lorsque l'un des bots (mediapartner, ggbot ou autre) accède à une page, elle est mise en cache ... dès qu'un autre bot essait d'accéder à une page déjà présente dans le cache (et qu'elle n'est pas trop vielle), il n'a plus besoin d'accéder au site (d'où la baisse de vistes sur les sites, soit une économie de bande passante) ... mais cela ne change rien au fonctionnement des bots et le fait qu'elle soit dans le cache (quel que soit le bot qui l'y a rappatrié) ne change rien au fait que tant que les bots d'indexations "classiques" n'accèdent pas aux pages (cachées ou pas), ils ne risquent pas d'indexer quoi que ce soit ... :wink:
 
WRInaute discret
ben justement ce n'est pas si simple.

Si un bot mediapartner arrive sur une page qui n'est pas dans l'indexe (80% de mes pages en ce qui me concerne) cette page devrait être a la disposition du "cache global". Ce qui devrait permettre a google de l'ajouter dans son indexe lorsqu'il le souhaite non ? pourtant cela n'arrive pas, il faut un nouveau passage d'un bot classique pour que la page apparaisse dans l'indexe.

Je dit cela car ça a une certaine importance pour suivre la manière dont google apprécie votre site. Dans mon cas les robots média partner visite en moyenne 200 pages/jour sur mon site mais les robots classique 15/jours
Cela indique que au mieux je peux m'attendre a voir 15 nouvelles pages indèxé tout les jours. ce qui en soit est une information qui indique que google n'est pas follement amoureux de mon site.
 
WRInaute accro
vanvan a dit:
Si un bot mediapartner arrive sur une page qui n'est pas dans l'indexe (80% de mes pages en ce qui me concerne) cette page devrait être a la disposition du "cache global". Ce qui devrait permettre a google de l'ajouter dans son indexe lorsqu'il le souhaite non ? pourtant cela n'arrive pas, il faut un nouveau passage d'un bot classique pour que la page apparaisse dans l'indexe.
je ne parlais pas des pages "cache" que tu vois dans les résultats (c'est certaienement de là que vient la confusion) et qui indiquent que l'indexation a bien été faite jusqu'au bout, mais de cache informatique (comme le font les firewalls matériels) ... ce mécanisme est complètement transparent pour les bots dont le fonctionnement n'a pas besoin d'être modifié pour en bénéficier ... :wink:

vanvan a dit:
Je dit cela car ça a une certaine importance pour suivre la manière dont google apprécie votre site. Dans mon cas les robots média partner visite en moyenne 200 pages/jour sur mon site mais les robots classique 15/jours
Cela indique que au mieux je peux m'attendre a voir 15 nouvelles pages indèxé tout les jours. ce qui en soit est une information qui indique que google n'est pas follement amoureux de mon site.
ben non justement, tu peux avoir jusqu'à 215 nouvelles pages par jours avec les infos que tu nous donnes ... :wink:
 
Discussions similaires
Haut