Vitesse d'indexation Google: Full Speed

WRInaute accro
Je ne sais pas s'il vous arrive de jeter un oeuil aux retours d'info de Google Sitemaps, mais je viens d'aller voir les statistiques GoogleBot...

J'avais spécifié la vitesse d'exploration de GoogleBot à "Plus rapide"... :mrgreen:


googlefullspeedci2.jpg



10.000 pages par jour... le c*n :?

Je comprends mieux le petit mot doux de l'hébergeur: "Dis, tu bouffes un peu de ressources tu sais..." :mrgreen:
 
WRInaute occasionnel
Bonjour,
Chez moi, cela n'a eu aucune incidence avec peut être même une petite baisse !
Il doit pas aimer "le manger" chez moi...
 
WRInaute occasionnel
HawkEye a dit:
10.000 pages par jour... le c*n :?

Je comprends mieux le petit mot doux de l'hébergeur: "Dis, tu bouffes un peu de ressources tu sais..." :mrgreen:
Si il s'agit de l'annuaire (j'y suis), il faut laisser tel quel STP.
J'aurais au moins une page de mon site vue régulièrement.
Merci :lol:
 
WRInaute accro
des différences qui dépendent des sites. Sur certains, je vois une augmentation flagrante.
Par contre, j'en ai un ou le nombre moyen de pages crawlé est le double de celui donné par la commande site: :cry:
 
Nouveau WRInaute
On pourrait débattre des critères qui font que l'option "rapide" sur certains sites et pas pour d'autres.
La fréquence de modification des pages semble le critère le plus important. L'ancienneté du site ou sa "crédibilité" auprès de Google ne semble absolument pas jouer.
 
WRInaute accro
pour moi aussi, j'ai choisi "rapide" et pas bcp de changements dans le crawl. Faut dire que j'ai pas des masses de pages et qu'elles ne sont pas toutes mises à jour régulièrement
 
WRInaute accro
Je me pose une question "subsidiaire"... Vous remarquez les deux "gaps", je dirais de 6 et 3 jours, l'un mi-septembre, l'autre début octobre...

Ca colle pas trop mal avec certains événements (MàJ de PageRank, ex-GoogleDance), non :?:
 
WRInaute occasionnel
Je ne retrouve pas ces "trous" sur mes courbes, mais je n'ai que 500 malheureuses pages qui ne surchargent pas Google.
Peut être que effectivement Google rallenti voire stoppe certaines opérations de crawle pendant que ses serveurs sont à fond sur des mises à jour importantes.
 
WRInaute occasionnel
Moi je ramarque aussi qu'il y a des periodes de crawl plus intense suivant les mois. Par exemple juste après des gros mise à jour. Cependant, Il faut pas généralisé car tout depend à mon avis des caractéristique du site
 
WRInaute discret
Une petite question en passant :wink:

On est bien d'accord pour dire qu'il n'y a aucun rapport entre la fréquence ou passe googlebot sur une page et le positionnement de cette page dans google ?
 
WRInaute occasionnel
Apparement aucun.
Le robot passe il voit les pages, mais de la à dire si il apprécie et comment il juge la page...
A priori si il revient c'est quand même sans doute qu'il y trouve un minimum d'interet.
 
WRInaute accro
Aucun lien direct dans ce sens là (la fréquence de crawl n'influe pas sur le positionnement).

Par contre, dans l'autre sens à mon avis, il y'en a un (le positionnement d'un site (et donc plus précisément le CTR dudit site dans les SERPs) doit jouer sur la fréquence de crawl).
 
WRInaute occasionnel
Google verifirait plus régulièrement le site bien placé pour s'assurer de l'interêt du site (contenu, mises à jour, pertinence par rapport au requêtes).
Cela parait effectivement logique pour toujours assurer la qulité des réponses données par le moteur.
Il y a quand même des failles et je parle souvent du cas d'un site placé en premiere page sur la requête d'un de mes mots clé et qui depuis prés d'un an maintenant sur une page unique affiche: "ce site n'est plus ou pas encore actif"
Je ne sais pas comment Google peut maintenir un tel référencement! Il a dû l'oublier...
 
Nouveau WRInaute
Merci de m'avoir ouvert les yeux sur ces stats :wink:

J'en profite pour vous montrer la mienne afin de peut etre résoudre mon problème d'indexation d'un site qui est en ligne depuis onze mois et qui n'a que 14 pages indexées au lieu de 2000 sur yahoo par exemple.
En voyant ton graph HawkEye je me rends compte que le peu de visites et indexation vient peut etre de la vitesse de téléchargement qui doit etre trop longue pour googlebot et lui donen envie de passer son chemin.
Pouvez vous me le confirmer et me donner vos avis ?

 
WRInaute occasionnel
Dubouk a dit:
Une petite question en passant :wink:

On est bien d'accord pour dire qu'il n'y a aucun rapport entre la fréquence ou passe googlebot sur une page et le positionnement de cette page dans google ?

N'allons pas trop vite, je pense que le crawl à un peu un rapport avec le positionnement car qui dit crawl de page dit backling internet, même si ces backling ont pas enormement d'effet sur le positionnement immediat, a la longue ça joue un peu

Maintenant, chacun à sa theorie
 
WRInaute discret
De mon coté sur l' interface webmaster tool d'un de mes sites je trouve:

Google
La vitesse à laquelle Googlebot effectue l'exploration dépend de nombreux facteurs. Actuellement, la vitesse d'exploration n'est pas un facteur dans l'exploration de votre site. Si elle devient un facteur, l'option Plus rapide ci-dessous sera mise à disposition.

Rassurez moi je ne suis pas le seul a être privé de la commande?
Si non, quelle est l'explication du refus de google?
Je dispose de 700 pages , une à deux pages sont crées par jours, et une dizaine sont modifiées
 
WRInaute occasionnel
Temps de téléchargement d'une page (en millisecondes)

705 548 280

Ton temps de téléchargement moyen par page n'est pas si important pour justifier le goût modéré du robot pour ton site (même si effectivement tu a soit des pages très lourdes soit un serveur parfois très lent)
Il y a sans doute à mon avis une autre explication (l'extème lenteur de l'hébergeur ou des problèmes d'indisponibilité répétés peuvent être un problème)
 
Nouveau WRInaute
apiphoto a dit:
Temps de téléchargement d'une page (en millisecondes)

705 548 280

Ton temps de téléchargement moyen par page n'est pas si important pour justifier le goût modéré du robot pour ton site (même si effectivement tu a soit des pages très lourdes soit un serveur parfois très lent)
Il y a sans doute à mon avis une autre explication (l'extème lenteur de l'hébergeur ou des problèmes d'indisponibilité répétés peuvent être un problème)

Je suis chez ovh en mutualise et dans l ensemble ca se passe plutot bien et ma page d acceuil 36,51 Ko et les autres dans le même genre.

Merci pour ta précision en tout cas :wink: et je vais essayer de faire des tests à ce sujet avec des outils.
 
WRInaute accro
Plus le crawling est rapide, plus les mises à jour dans les SERPS sont rapide... Google peut le faire, il vient de s'offrir 300 000 serveurs tout récemment.
 
Discussions similaires
Haut