Vitesse d'exploration par Google - Outils pour Webmasters

e-kiwi

WRInaute accro
tout ceci ne résout pas le problème.

pourquoi un site qui est sur son propre serveur dédié, largement assez puissant, mis à jour toutes les 15 minutes n'a pas cette option d'activée ?
 

pascalp32

Nouveau WRInaute
Comme je le disais précédemment (je n'ai pas assez précisé)


> site communautaire : serveur dédié et option pas activable (mais pas de "site map") et pourtant mis à jour fréquemment et existant depuis 8 ans !
> site commercial ouvert depuis 3 mois : mutualisé OVH, site pro, site map ==> mise à jour hebdomadaire ==> option "plus rapide" activée...

Je pense que communiquer un plan du site influe :roll:
 

Leonick

WRInaute accro
Ca rejoint bien ce que je pense : sur un dédié avec peu de sites, un crawl intensif de gg ne gêne pas, donc comme il n'a pas besoin de réduire sa vitesse de crawl, il n'a pas besoin d'afficher "plus vite", vu qu'il tourne déjà à sa vitesse optimale.

Ne pas oublier que gg peut faire la liaison entre un site et une ip, et réciproquement. Comme la commande ip:nn.nn.nn.nn qui est opérationnelle avec Live
 

Suede

WRInaute passionné
e-kiwi a dit:
tout ceci ne résout pas le problème.

pourquoi un site qui est sur son propre serveur dédié, largement assez puissant, mis à jour toutes les 15 minutes n'a pas cette option d'activée ?

The rate at which Googlebot crawls is based on many factors. At this time, crawl rate is not a factor in your site's crawl. If it becomes a factor, the Faster option below will become available.

Une hypothèse est que google ne pense pas que cela soit un facteur dans le crawlage des pages.

Ce qui signifie que si tu as une mise à jour de page, google conclue peut-être que les différences de contenu lors de la mise à jour des pages n'est pas suffisante pour recrawler la page. Ou bien que si tu parles de création de nouvelles pages et non pas mise á jour de nouvelle page, le crawl actuel suffit à crawler les nouvelles pages si les anciennes ne changent pas ou peu au niveau contenu.

Le "crawl rate" dépend de deux facteurs:
1- La nécessité pour un site d'avoir un crawl plus rapide du contenu
2- La possibilité pour le serveur de soutenir un crawl plus important.

Le 1 est nécessaire. Le 2 est éliminatoire.
 

e-kiwi

WRInaute accro
sachant qu'on parle d'un site d'actualités en temps réel, le 1 est forcement Ok. j'en déduis donc que c'est le point 2 qui bloque. cela serait pas mal d'avoir une comparaison des temps d'accès moyens aux pages de sites qui peuvent et des sites qui ne peuvent pas choisir cette option
 

e-kiwi

WRInaute accro
ok je rectifie mes dernieres participation à ce sujet. nous venons de changer d'hebergeur il y a peu de temps, et là je viens de vérifier, je peux maintenant choisir cette option. c'était bien le point 2 qui posait problème.
 

Discussions similaires

Haut