Vitesse d'exploration par Google - Outils pour Webmasters

Discussion dans 'Problèmes de référencement spécifiques à vos sites' créé par OTP, 20 Février 2007.

  1. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 582
    J'aime reçus:
    3
    Bonjour,

    Google Outils pour webmasters me dit, pour un de mes sites :

    Qu'est ce que ça signifie réellement ?

    Michaël
     
  2. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    tu es sur un dédié?
     
  3. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 582
    J'aime reçus:
    3
    Non, OVH 60gp, truc classique.
     
  4. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Je pense que s'en est la raison.
    Augmenter la vitesse d'exploration augmente la charge du serveur.
     
  5. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 582
    J'aime reçus:
    3
    J'étais passé en haute vitesse avant. Mais si le serveur est surchargé, ça ne vient pas de mon site... Trop de monde sur ce serveur ?
     
  6. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Ben si: c'est en crawlant rapidement ton domaine que la charge du serveur augmente.
     
  7. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 582
    J'aime reçus:
    3
    Ok, mais le crawl rapide sur mon site n'a jamais explosé les stats. Plutôt une bonne vieille brasse des familles !
     
  8. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Ben non: c'est pas le poid du crawl qui change mais sa vitesse.
     
  9. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 582
    J'aime reçus:
    3
    Tu veux dire que ce sont les pics en instantané qui dimensionnent, c'est ça ?
     
  10. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Le bot crawl le domaine à une vitesse raisonnable pour que le visiteur puisse continuer à surfer sur le site de manière fluide.
    Si tu augmentes cette vitesse, la navigation s'en ressent pendant le crawl.
     
  11. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 582
    J'aime reçus:
    3
    Ok. En gros, je laisse en vitesse standard, ça ira. Et le problème ne vient pas de mon site, c'est déjà ça. C'est bon ?
     
  12. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Oui c'est bon :)
    Et non, ton site n'est pas en cause mais plutôt ton hébergement :wink:
     
  13. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 582
    J'aime reçus:
    3
    Tu penses que cette insuffisance de l'hébergement pourrait aussi me nuire au niveau de la navigation par les internautes ?
     
  14. arnaudmn
    arnaudmn WRInaute passionné
    Inscrit:
    11 Mai 2005
    Messages:
    1 038
    J'aime reçus:
    2
    Re: Vitesse d'exploration par Google - Outils pour Webmaster

    Même chose pour moi. Et c'est aussi pour un site chez ovh. Comme quoi, les nombreux problèmes de lenteurs qu'il y a eu les dernières semaines ont vraiment un impact sur le référencement !
     
  15. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    J’irai même plus loin.

    <mode hypothèse>

    J’ai le sentiment que notre ami Google ne positionnera jamais (j’entends par là, un très bon positionnement) un site quelconque si ce dernier n’est pas apte à supporter la charge induite par le trafic supplémentaire.
    </mode hypothèse>

    A vérifier mais je ne sais pas comment :?
     
  16. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 582
    J'aime reçus:
    3
    Oulà, c'est grave ça. Quelqu'un pour confirmer ?
    Ca voudrait dire qu'il vaut mieux déplacer mon site ?
     
  17. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Pour me conforter dans cette hypothèse, je me dis que Google n’a aucun intérêt à présenter en tête des requêtes un site down aux heures de pointes.
    Par ailleurs, je n’en ai jamais rencontré.
     
  18. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 582
    J'aime reçus:
    3
    D'un autre coté, je n'ai jamais vu mon site down (en dehors des pannes OVH généralisées) !
     
  19. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Alléluia :D

    Peut être qu'avec une exploration plus rapide, Google estime qu'il le serait :wink:
     
  20. vpx
    vpx WRInaute impliqué
    Inscrit:
    23 Mars 2004
    Messages:
    852
    J'aime reçus:
    0
    Je n'ai pas la même lecture de cette phrase: A mon avis, ça signifie que pour l'instant, à la vitesse normale, Google arrive à explorer ton site sans problème. Si ton nombre de pages augmente rapidement, passer à la vitesse superieure pourrait apporter un plus (et donc ils activeraient cette fonction), mais au risque de consommer plus de bande passante.
     
  21. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 582
    J'aime reçus:
    3
    Je préfère cette lecture, sous tous les aspects. GG n'est-il pas en train de me dire qu'il a fait le tour du proprio et que pour voir les évolutions, il n'a pas besoin d'aller plus vite que la normale ?
     
  22. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Il semblerait que j'ai mis dans le mille :oops:

    Googlebot dispose d'algorithmes perfectionnés qui déterminent la vitesse d'exploration de chaque site. Notre objectif est d'explorer autant de pages de votre site que possible à chaque visite sans surcharger la bande passante de votre serveur. Vous pouvez utiliser l'outil de réglage de la vitesse d'exploration, accessible à partir de l'onglet Diagnostic, pour nous demander de modifier ce paramètre pour votre site. Vous trouverez également des informations sur l'étendue de l'exploration de votre site Googlebot au cours des 90 derniers jours. Si vous souhaitez limiter la vitesse d'exploration de votre site, sélectionnez simplement l'option "Moins rapide" et cliquez sur "Enregistrer". Ce nouveau paramètre sera valable 90 jours. Si nous estimons que l'exploration de votre site est restreinte (nous explorerions plus de pages de votre site si nous savions que votre serveur pouvait gérer une bande passante plus importante), nous vous le ferons savoir et vous proposerons une exploration plus rapide. Si vous souhaitez que Googlebot explore votre site plus rapidement, sélectionnez simplement l'option "Plus rapide" et cliquez sur "Enregistrer". À tout moment, vous pouvez accéder à cet outil et choisir l'option "Normale" pour rétablir la vitesse d'exploration initiale. Si, après 90 jours, vous ne souhaitez pas revenir à une exploration normale, vous pouvez sélectionner "Moins rapide" ou "Plus rapide" par le biais de l'outil.

    source
     
  23. vpx
    vpx WRInaute impliqué
    Inscrit:
    23 Mars 2004
    Messages:
    852
    J'aime reçus:
    0
    Non au contraire, ça veut dire que sur le site, tout va bien: Google n'estime pas que l'exploration est restreinte, et si un jour Google pense qu'une exploration plus rapide est necessaire (certainement compte tenu de la progression du nombre de pages), il ne le fera pas automatiquement, mais rendra l'option disponible.
    J'ai la même indication dans mon compte sitemaps, et Google explore mon site tous les jours sans problème.
     
  24. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 582
    J'aime reçus:
    3
    Il passe moi aussi tous les jours, a priori sans soucis. On peut dire en tout cas que ce n'est pas absolument clair...
     
  25. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Je n'ai à aucun moment prétendu le contraire.
    Présentement, nous ne sommes pas d'accord sur l'interprétation.

    Si nous estimons que l'exploration de votre site est restreinte (nous explorerions plus de pages de votre site si nous savions que votre serveur pouvait gérer une bande passante plus importante), nous vous le ferons savoir et vous proposerons une exploration plus rapide.

    Onthisplanet, sur la page "Vitesse d’exploration", la case "Plus rapide" est-elle sélectionnable?
    Chez moi, elle ne l'est pas.
     
  26. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 582
    J'aime reçus:
    3
    Elle le fut. Elle ne l'est plus.
     
  27. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Idem pour moi.

    Je reste convaincu que si je passais en dédié avec des ressources suffisantes, non seulement je pourrais la sélectionnée mais surtout, je gagnerais en positionnement.
     
  28. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 582
    J'aime reçus:
    3
    Si tu le fais, tiens moi au courant ! :wink:
     
  29. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Idem pour toi :D
    Mais j'y songe sérieusement, une dédibox probablement.
     
  30. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 582
    J'aime reçus:
    3
    Moi, je n'y songe pas. Un dédié pour un site perso, c'est un peu cher !
     
  31. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Tout dépend de ce qu'il te ramène et de son potentiel.
     
  32. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 582
    J'aime reçus:
    3
    Le potentiel : il serait important si j'y bossais toute la journée.
    Ce qu'il ramène : je n'ai pas envie de le dépenser dans un dédié...
     
  33. vpx
    vpx WRInaute impliqué
    Inscrit:
    23 Mars 2004
    Messages:
    852
    J'aime reçus:
    0
    Moi je ne pense pas que Google fasse un crash-test des sites pour le ranking. Mais c'est vrai qui si ton serveur est constamment sur les genoux quand le bot passe, tu auras des soucis de positionnement, c'est logique (d'ailleurs je le constate sur un site hebergé sur l'offre promotionnelle de 1&1). Mais c'est simple à vérifier: Dans les statistiques d'exploration de sitemaps, si tu as fréquemment des erreurs du type "réseau innaccessible", tu peux effectivement penser à faire évoluer ton hebergement. S'il n'y a pas d'erreur, c'est que tout va bien de ce côté.
     
  34. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 582
    J'aime reçus:
    3
    Aucune URL signalée inaccessible pour ma part.
     
  35. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    N'est-ce pas sous entendu ci-dessous:

    Googlebot dispose d'algorithmes perfectionnés qui déterminent la vitesse d'exploration de chaque site. Notre objectif est d'explorer autant de pages de votre site que possible à chaque visite sans surcharger la bande passante de votre serveur.
     
  36. vpx
    vpx WRInaute impliqué
    Inscrit:
    23 Mars 2004
    Messages:
    852
    J'aime reçus:
    0
    Bah il me semble évident que la vitesse d'exploration est conditionnée par la vitesse d'évolution d'un site. Par exemple, moi j'ai un forum assez vivant, et Google y passe plusieurs fois par jour, en consommant beaucoup de bande passante. A côté de ça, j'ai des sites statiques dont les mises à jour sont rares, et la, Google passe épisodiquement. Franchement, je crois que si Google faisait des tests de montée en charge de chaque serveur, ce serait vraiment ennuyeux pour les webmaster... Imagine sur un serveur mutualisé qui heberge 300 sites! Si google les teste un par un chaque jour jusqu'à épuisement du quota de bande passante...
     
  37. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Mais il le fait, par algorithmes: en fonction du diagnostique, il autorise ou non l’activation de la case "Plus rapide".

    En tout cas, c'est ce que je comprends en lisant l'aide fournie par Google.
     
  38. vpx
    vpx WRInaute impliqué
    Inscrit:
    23 Mars 2004
    Messages:
    852
    J'aime reçus:
    0
    Non franchement je pense que tu n'es pas dans le vrai ;)
    Tiens si ça peut commencer à te convaincre: J'ai récemment lancé une petite plateforme de blogs qui est hebergée sur un serveur dédié (completement sous-exploité car trés peu de visiteurs), et je n'ai pas non plus la case "+ rapide" dans le sitemaps. Et pourtant, je peux te dire que Google pourrait y aller rapidement pour le crawl, il est quasimment tout seul!
     
  39. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    La question n'est pas de me convaincre ou non, elle réside dans l'interprétation de ce que dit Google

    Googlebot dispose d'algorithmes perfectionnés qui déterminent la vitesse d'exploration de chaque site. Notre objectif est d'explorer autant de pages de votre site que possible à chaque visite sans surcharger la bande passante de votre serveur. Vous pouvez utiliser l'outil de réglage de la vitesse d'exploration, accessible à partir de l'onglet Diagnostic, pour nous demander de modifier ce paramètre pour votre site. Vous trouverez également des informations sur l'étendue de l'exploration de votre site Googlebot au cours des 90 derniers jours. Si vous souhaitez limiter la vitesse d'exploration de votre site, sélectionnez simplement l'option "Moins rapide" et cliquez sur "Enregistrer". Ce nouveau paramètre sera valable 90 jours. Si nous estimons que l'exploration de votre site est restreinte (nous explorerions plus de pages de votre site si nous savions que votre serveur pouvait gérer une bande passante plus importante), nous vous le ferons savoir et vous proposerons une exploration plus rapide. Si vous souhaitez que Googlebot explore votre site plus rapidement, sélectionnez simplement l'option "Plus rapide" et cliquez sur "Enregistrer". À tout moment, vous pouvez accéder à cet outil et choisir l'option "Normale" pour rétablir la vitesse d'exploration initiale. Si, après 90 jours, vous ne souhaitez pas revenir à une exploration normale, vous pouvez sélectionner "Moins rapide" ou "Plus rapide" par le biais de l'outil.

    source
     
  40. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 582
    J'aime reçus:
    3
    (Je ne pensais pas déchainer une telle discussion avec la petite question !)
     
  41. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Déchainer est sans doute un terme quelque peu fort, non? :?

    Nous débattons Onthisplanet :D
     
  42. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 582
    J'aime reçus:
    3
    Je te l'accorde !
    Le terme était fort !
     
  43. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 274
    J'aime reçus:
    0
    Pour moi, ça veut dire qu'au travers de ses différents crawls, il s'est aperçu qu'il n'avait pas besoin d'aller plus vite, vu le peu de changements du contenu des pages crawlées;
    S'il calculait automatiquement la charge optimale du serveur, il ne laisserait pas la possibilité de diminuer cette vitesse de crawl.
    J'ai eu des sites chez OVH (90Plan et 300GP) qui ont eu l'option plus rapide pendant quelques mois.
    Mais sur certains sites, je suis repassé en "Moins rapide"
     
  44. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 582
    J'aime reçus:
    3
    Tu es en train de dire que mon forum est asmathique ? :cry:
     
  45. vpx
    vpx WRInaute impliqué
    Inscrit:
    23 Mars 2004
    Messages:
    852
    J'aime reçus:
    0
    (Je suis content de voir que je ne suis pas le seul à avoir compris :) )
    Non, ton site n'est pas asmathique, il est simplement "normal". Mais si un jour sa croissance devient exceptionnellement rapide, Google te donnera la possibilité de l'autoriser à crawler plus rapidement.
     
  46. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 582
    J'aime reçus:
    3
    Ok, j'ai compris. J'espère un jour pouvoir te donner l'opportunité de confirmer cette interprétation !
    (N'empêche que mon forum est quand même asmathique...)
     
  47. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 274
    J'aime reçus:
    0
    plus que ce critère, il faut regarder le nombre de pages crawlées (mi, max et moyen).
    J'ai un site, où le nombre de pages moyen crawlé et supérieur au nombre de pages dans l'index de GG :cry:
     
  48. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Ce n'est pas si: Google le fait, c'est stipulé en toutes lettres :wink:

    Googlebot dispose d'algorithmes perfectionnés qui déterminent la vitesse d'exploration de chaque site.

    Il est aussi dit concernant la réduction de la vitesse:

    Si vous souhaitez limiter la vitesse d'exploration de votre site, sélectionnez simplement l'option "Moins rapide" et cliquez sur "Enregistrer"

    Par contre vous remarquerez que le choix d'augmenter la vitesse leur est réservé:

    Si nous estimons que l'exploration de votre site est restreinte (nous explorerions plus de pages de votre site si nous savions que votre serveur pouvait gérer une bande passante plus importante), nous vous le ferons savoir et vous proposerons une exploration plus rapide.
     
  49. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 274
    J'aime reçus:
    0
    Ce n'est pas tout à fait ce qui est marqué.
    Ce qu'ils disent c'est qu'ils calculent la vitesse optimale de crawl, (par rapport à différents paramètres qui doivent tenir compte des liens internes dans les pages, du sitemap, de la vitesse de modification des pages, etc... à aucun moment de la bande passante), et si nous, on trouve qu'il charge trop notre serveur, on peut réduire cette vitesse. De même pour augmenter, s'ils pouvaient calculer automatiquement la charge d'un serveur ils ne laisseraient pas cette possibilité
     
  50. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Ca ressemble à de la mauvaise foi où alors tu ne prends pas la peine de tout lire 8O

    Je cite pour la nième fois:

    Googlebot dispose d'algorithmes perfectionnés qui déterminent la vitesse d'exploration de chaque site.


    nous explorerions plus de pages de votre site si nous savions que votre serveur pouvait gérer une bande passante plus importante

    Explique moi aussi pourquoi je ne peux pas séléctionner "Plus Rapide"
     
  51. vpx
    vpx WRInaute impliqué
    Inscrit:
    23 Mars 2004
    Messages:
    852
    J'aime reçus:
    0
    Keep cool Salva, ce tout petit problème ne mérite pas d'invoquer la "mauvaise foi".
    Pour mieux comprendre la phrase, tu peux lire la version originale en anglais:
    "If we determine that we are limiting how much we crawl your site (in other words, we would crawl your site more if we felt your server could handle the additional bandwidth), we will let you know this and offer the option for a faster crawl."
    Le "si nous savions", ca veut dire "si vous cochiez la case + rapide, nous saurions que votre serveur peut nous accorder d'avantage de bande passante".
    Moi je ne la trouve même pas ambigüe cette phrase... Tout me semble évident, donc je ne peux pas te l'expliquer mieux. En plus techniquement, ce serait abérant que Google épuise la bande passante des sites web pour le ranking... Il faut savoir que certains hebergements sont limités en bande passante: Une fois le maximum atteint, tu as une page blanche "bandwidth exceeded" jusqu'au mois suivant. Donc imagine seulement la catastrophe... Sur certains hebergements gratuits, le site est directement fermé en cas de conso excessive.
     
  52. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
  53. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Mais je suis cool, crois moi :wink:
    Mais quand j'en rencontre un exemple flagrant (de mauvaise foi), pourquoi pas.
    Si s'en est pas, c'est pire :D
     
  54. vpx
    vpx WRInaute impliqué
    Inscrit:
    23 Mars 2004
    Messages:
    852
    J'aime reçus:
    0
    En tout cas dans le lien que tu as donné, tu as la réponse à ta question:
    Quand la case "+ rapide" est dispo,:
    C'est ce que je dis depuis le début. J'en reste la pour ma part. ;)
     
  55. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Tu as aussi prétendu autre chose.
    Je te laisse le soin de tout relire :wink:
     
  56. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    De ceci:

    <mode hypothèse>
    J’ai le sentiment que notre ami Google ne positionnera jamais (j’entends par là, un très bon positionnement) un site quelconque si ce dernier n’est pas apte à supporter la surcharge induite par le trafic supplémentaire.
    </mode hypothèse>

    Vous en pensez quoi?

    Une personne en mesure d’infirmer ou de confirmer?
     
  57. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 582
    J'aime reçus:
    3
    J'aimerais bien, moi aussi, lire d'autres opinions sur le sujet.
     
  58. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 274
    J'aime reçus:
    0
    Vu le nombre de sites hébergés sur free.fr et leur positionnement, j'ai des doutes. Surtout quand on connait les problèmes de montée en charge que connait free à certains moments (de la journée, de la semaine, ...)
     
  59. RomsIW
    RomsIW WRInaute passionné
    Inscrit:
    25 Mai 2004
    Messages:
    1 038
    J'aime reçus:
    0
    tout dépend du succès des requêtes en question
     
  60. Altenide
    Altenide WRInaute impliqué
    Inscrit:
    26 Novembre 2003
    Messages:
    532
    J'aime reçus:
    2
    hypothèse rejetée j'ai transféré un de mes sites amen (sphera/linux) sur un 90ovh et cela n'a pas influencé le référencement ni la réponse de cet outil google.

    je ne pense pas que la vitesse du crawlbot soit un facteur m^me infime.

    :)
     
  61. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Ce n'est pas la question :)

    Celle que je me pose:
    Si un site (plus précisément le serveur qui l'héberge) n’est pas apte à supporter la surcharge induite par le trafic supplémentaire (consécutif à un meilleur positionnement), a t-il une chance de se retrouver en tête des requêtes?
     
  62. Altenide
    Altenide WRInaute impliqué
    Inscrit:
    26 Novembre 2003
    Messages:
    532
    J'aime reçus:
    2
    ça doit dépendre du taux de surcharge et comment il se traduit s'il est répété etc. Une lenteur d'accès exagérée doit un minimum bloquer les bots, tout dépend donc (si on parle de google), de son degré de tolérance. Il faudrait tester ... Ce qui ne me semble pas évident.

    A priori un site qui rencontrerait ce genre de pb de manière répété raterait la moitié des google dance. Si on part du principe que le site est en premier sur une requete importante et que bcp de site cible cette requete alors je ne vois pas comment il se maintiendrait en première place.[/quote]
     
  63. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Re: Vitesse d'exploration par Google - Outils pour Webmaster

    [/quote]

    Tu estimes donc qu'il pourrait paraître dans les premiers résultats de recherche mais ne pas y rester?
     
  64. Altenide
    Altenide WRInaute impliqué
    Inscrit:
    26 Novembre 2003
    Messages:
    532
    J'aime reçus:
    2
    EUh, sauf si j'ai mal compris l'hypothèse de départ :

    A - le site est positonné en 1 sur une requete
    ce positionnement entraine une surchage (bande pasante over)
    le bot ne peux plus indexé que par intermittence

    soit la requete est concurrentielle : le site chute dans les abimes
    soit la requete n'est pas concurrencielle : le site garde sa position

    B - Le site n'est pas optimisé et est surchargé.
    le bot ne peux plus indexé que par intermittence
    le site ne décollera jamais des bas-fonds

    donc pour répondre a ta question : Oui :)
     
  65. RomsIW
    RomsIW WRInaute passionné
    Inscrit:
    25 Mai 2004
    Messages:
    1 038
    J'aime reçus:
    0
    pour moi rien ne dit le contraire je retiens l'hypothèse
     
  66. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    On y est presque :D

    Sachant que Google est capable de déterminer la charge d’un serveur, je me dis qu’il n’a aucun intérêt à présenter un site qui ne pourrait faire face à l’afflux supplémentaire de charge serveur induit par la 1ère place d’une requête concurrentielle (le site en question serait optimisé sémantiquement parlant qui avec des ressources suffisantes serait en 1ère position).

    Je souhaiterais savoir si Google le positionnera quand même à la 1ère place, du moins pour un certain temps.

    Où alors d'entrée, sur une position moins reluisante (donc moins de visiteurs) qui permettrait au serveur d’assumer la charge demandée.

    Si vous avez des retours, c’est avec plaisir que je vous lirai.

    Merci.
     
  67. RomsIW
    RomsIW WRInaute passionné
    Inscrit:
    25 Mai 2004
    Messages:
    1 038
    J'aime reçus:
    0
    Disons que si on part à l'inverse sur des contre-exemples. J'ai devant moi sur une requête très concurrentielle un vieux site tout moche dont je ne pense pas qu'il soit sur un dédié, et qui veut pas bouger le c.. !

    Alors je reste en deuxième place avec le site du www en question qui fait pourtant énormément de visites (plus d'un millier par jour) et pourtant pas très visité par les robots..
     
  68. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Quel âge a ce c.. de site :D
     
  69. RomsIW
    RomsIW WRInaute passionné
    Inscrit:
    25 Mai 2004
    Messages:
    1 038
    J'aime reçus:
    0
    disons que c'est un vieux c.. ! mais nous on a deux ans quand même, alors place aux jeunes vieux pas c.. ('fin j'espère) ! (pour trouver la requete en question, il suffit de regarder les premiers mots du titre de la page principale du site en www hein ;))
     
  70. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 274
    J'aime reçus:
    0
    si les hypothèses du dessus sont bonnes, il suffit de lui faire un bon référencement, au site concurrent, comme cela il aura plein de visiteurs et ça lui chargera son serveur d'où un DOS et comme gg trouvera que son serveur n'assure pas, il le retrogradera :twisted: :twisted:
     
  71. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    2001 quand même pour le NDD :wink:

    Mais ça me dit pas si son serveur n'est pas apte à supporter la surcharge.
    Présentement , je parle de surcharge engendrée par les visiteurs et non de crawl des bots.

    Si tu as 1000 visites/jour, il doit en avoir au moins autant.
     
  72. Remi L.
    Remi L. WRInaute impliqué
    Inscrit:
    6 Septembre 2003
    Messages:
    905
    J'aime reçus:
    0
    C'est marrant comment un texte peut prêter à des interprétations différentes.

    A mon avis, c'est vpx qui a raison.
    Salva, je ne vois pas où tu as pris le texte en français que tu cites (moi je vois un texte en anglais) mais ta traduction n'est pas tout à fait exacte. Le sens est "si nous sentons que nous avons limité le crawl alors nous vous proposerons..."
    Tant que googlebot a l'impression qu'il peut lire autant de pages que nécessaire, il ne proposera pas l'option.

    A mon avis, on a tous mis "vitesse supérieure" il y a quelques mois et le bot ne savait plus où donner de la tête, donc maintenant ils grisent l'option tant qu'ils estiment en lire suffisamment.
     
  73. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 582
    J'aime reçus:
    3
    En effet, je l'ai cochée pour tous mes sites...
     
  74. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Toujours tourner 7 fois la langue dans sa bouche :wink:
    http://www.annuaire-info.com/referencem ... googlebot/

    Tu souhaites donner ton avis, parfait. Mais au moins donnes toi la peine de tout lire.
     
  75. RomsIW
    RomsIW WRInaute passionné
    Inscrit:
    25 Mai 2004
    Messages:
    1 038
    J'aime reçus:
    0
    Moi j'ai déjà mis en vitesse d'exploration plus rapide, le délai imparti est dépassé, voici ce que ça affiche now à la place : "Plus rapide Actuellement, le taux d'exploration n'est pas un facteur pour votre site. "

    tac rien compris..
     
  76. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Ca signifie qu'en choisissant plus rapide, la charge serveur est trop importante.
     
  77. RomsIW
    RomsIW WRInaute passionné
    Inscrit:
    25 Mai 2004
    Messages:
    1 038
    J'aime reçus:
    0
    ça risque pas non > dédié et 1300 Visites par jour.. (les autres sites sur le dédié font pas d'audience). En fait, lorsque l'on choisit "rapide", il donne une date max où il s'arrête, et c'est depuis qu'il a atteint cette date il y a peu qu'il me met ça.
     
  78. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Exacte
    L’aide en ligne de Google pour les webmasters et des messages récents sur le blog de Matt Cutts expliquent clairement que la disponibilité de cette option est liée au concept de”Hostload“. La “charge du serveur web” est estimée par Google en comparant le besoin d’accès de Google à votre serveur et la capacité de celui-ci à transférer, sans problème, les données demandées.

    L’option “Plus rapide” ne sera pas disponible pour un serveur que Google considère comme suffisamment performant.

    Par contre, si le temps moyen de téléchargement d’une page (troisième graphique de la page “Vitesse d’exploration“) est considéré comme ”long” par Google, le moteur de recherche pourrait conclure qu’il ne peut faire plus d’accès sans mettre en danger le bon fonctionnement de votre site. Dans ces conditions, Google ne visite pas toutes les pages de votre serveur qu’il voudrait indexer. Google offre alors, à vos risques et périls, la possibilité d’autoriser une augmentation de la fréquence des visites de Googlebot et de ses autres robots.


    Source
     
  79. RomsIW
    RomsIW WRInaute passionné
    Inscrit:
    25 Mai 2004
    Messages:
    1 038
    J'aime reçus:
    0
    Merci pour ça,

    Conclusion : un site ayant un hébergement plus performant est plus disposé à être indexé PLUS RAPIDEMENT certainement, mais mieux positionné, on ne sait toujours pas...

    D'autres Z'expériences ?
     
  80. schtroumpf
    schtroumpf WRInaute occasionnel
    Inscrit:
    26 Octobre 2003
    Messages:
    347
    J'aime reçus:
    0
    Ce critère fait partie des 'Mythes du référencement sur Google'

    Cf https://www.webrankinfo.com/actualites/2 ... google.htm

    Je cite :
    Sous entendu : pas d'influence sur le positionnement.

    Arnaud
     
  81. RomsIW
    RomsIW WRInaute passionné
    Inscrit:
    25 Mai 2004
    Messages:
    1 038
    J'aime reçus:
    0
    Merci :) ça me rassure qq part
     
  82. Audiofeeline
    Audiofeeline WRInaute accro
    Inscrit:
    20 Octobre 2005
    Messages:
    4 172
    J'aime reçus:
    2
    Je confirme, je crois même que Matt avait fait un post là dessus...
    Ca semble normal quelque part, une page lourde peut en effet avoir beaucoup de contenu pertinent...
    Après je serais curieux de savoir à partir de quel délais Google Bot laisse tomber l'affaire...
     
  83. Altenide
    Altenide WRInaute impliqué
    Inscrit:
    26 Novembre 2003
    Messages:
    532
    J'aime reçus:
    2
    oui c'est bien ce qui me semblait aussi. Et le point important idem, à partir de combien de temps google lache-t-il l'affaire, imaginons une page équivalent à un livre de poche de 400 pages ? l'a lit-il entièrement ? si oui qu'en retient t-il.

    Si on se réfère à ce qu'on entend le plus fréquement google ne prendrait en compte que X (300 - 500) mots du contenu visible, mais lit-il le reste ? Et à quoi cela lui sert-il s'il ne le prend pas en compte ? Ce bot est-il un flemmard ?
     
  84. salva
    salva WRInaute accro
    Inscrit:
    16 Avril 2006
    Messages:
    3 425
    J'aime reçus:
    0
    Google prend toute la page en compte.
    Facile à vérifier: tu prends une phrase quelconque (sur une page de plus de 500 mots) que tu soumets en requête à Google.
     
  85. Audiofeeline
    Audiofeeline WRInaute accro
    Inscrit:
    20 Octobre 2005
    Messages:
    4 172
    J'aime reçus:
    2
    Mais à partir de combien de temps il considère que le serveur ne répond pas?
     
  86. Altenide
    Altenide WRInaute impliqué
    Inscrit:
    26 Novembre 2003
    Messages:
    532
    J'aime reçus:
    2
    et bien justement c çà la question, aucune info.

    hypothèse : pas longtemps

    soit le serveur répond tout de suite (il reviendra le bot sauf si le serveur ne répond jamais)

    soit le serveur répond pas et il passe à autre chose (m'étonnerai qu'il essaye 10 000 ping qui pourrait être taxés de flood).
     
  87. dumbel
    dumbel WRInaute discret
    Inscrit:
    30 Mai 2005
    Messages:
    185
    J'aime reçus:
    0
    il y a 1 truc que je ne comprends pas : admettons que mon site ait un trafic mensuel de 2%/mois, est ce que cela a 1 rapport avec l'accessibilité du site ? Ceci veut il dire que GGbot va crawlé mes pages plus vite :?:
     
  88. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 274
    J'aime reçus:
    0
    Ca tombe bien, moi non plus :wink: 2% de quoi ?
     
  89. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 582
    J'aime reçus:
    3
    2% de tout le trafic mondial ! :D
     
  90. dumbel
    dumbel WRInaute discret
    Inscrit:
    30 Mai 2005
    Messages:
    185
    J'aime reçus:
    0
    lol oui désolé c'était pas clair. :D
    Je veux dire sur le panneau admin ovh pour le 60 gp je lis :
    Capacité traffic mensuel: 20 Go
    Utilisé : 400 Mo
    Donc je voulais dire 2% de la capacité max sur la bande passante autorisée sur cet hébergement.

    Puis je en déduire que GGbot va crawlé plus vite mon site parce que je n'utilise pas bcp de bande passante ?
     
  91. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 274
    J'aime reçus:
    0
    J'ai raté quelque chose, mais je n'ai pas vu où indiquer la bande passante à notre disposition dans l'interface webmaster de google. :lol:
    Très de plaisanterie, gg ne tient pas compte de ça pour crawler. Soit il trouve le site intéressant et il va le crawler plus profondément, soit il l'a déjà crawlé entièrement, il ne trouve pas de nouveaux liens et les pages déjà crawlées ne changeant pas, il n'a aucun intérêt à crawler plus rapidement, il a déjà suffisamment de travail comme ça.
    SI il trouve qu'il pourrait intensifier son travail sur ton site, il proposerait d'aller plus vite, si ce n'est pas le cas, c'est que ça lui suffit.
    Et en plus, comme tous les webmasters se sont dit, "chic, je le règle au max, comme ça je serais crawlé plus souvent" et bien maintenant c'est supprimé ou très limité.
    En plus, j'ai des doutes sur le crawl plus efficient des liens dans la sitemap.
     
  92. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 582
    J'aime reçus:
    3
    Attention il ne faut pas confondre ta part de BP sur le serveur (qui héberge plusieurs site) et la BP réelle du serveur.
     
  93. e-kiwi
    e-kiwi WRInaute accro
    Inscrit:
    23 Décembre 2003
    Messages:
    13 198
    J'aime reçus:
    1
    alors là, je comprend pas ...
    j'ai 3 serveurs dédiés pour ce site, normalement ça devrait tourner du tonnerre, et j'ai toujours
    "La vitesse à laquelle Googlebot effectue l'exploration dépend de nombreux facteurs. Actuellement, la vitesse d'exploration n'est pas un facteur dans l'exploration de votre site. Si elle devient un facteur, l'option Plus rapide ci-dessous sera mise à disposition."
     
  94. RomsIW
    RomsIW WRInaute passionné
    Inscrit:
    25 Mai 2004
    Messages:
    1 038
    J'aime reçus:
    0
    en même temps ça dépend, ya ptet un ratio entre le nombre de pages restant à indexer et la capacité de ton serveur
     
  95. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 274
    J'aime reçus:
    0
    par rapport à ce que je vois selon mes sites sur serveurs dédiés ou mutu, je comprends qu'il utilise la vitesse la plus importante quand il sait que sur un même serveur on n'a pas de milliers de sites et que, par défaut, sur un mutu, il considère qu'il ne faut pas trop charger et c'est pour cela que l'option "plus rapide" peut être disponible.
     
  96. terry
    terry WRInaute discret
    Inscrit:
    22 Mai 2004
    Messages:
    63
    J'aime reçus:
    0
    L'option "plus rapide" apparait quand un site est mis à jour quotidiennement avec ajout de plusieurs pages par jour accessibles depuis la page d'accueil.
     
  97. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 274
    J'aime reçus:
    0
    non, pour moi ça dépend du nombre de sites hébergés sur la même ip : mets un site qui ne bouge pas du tout sur un mutualisé, tu auras l'option plus rapide. Sur un dédié avec peut d'autres sites, gg sait qu'il ne gênera pas ton serveur en crawlant à la vitesse qu'il veut.
     
  98. e-kiwi
    e-kiwi WRInaute accro
    Inscrit:
    23 Décembre 2003
    Messages:
    13 198
    J'aime reçus:
    1
    j'ai un site et un seul pour une IP, et une mise à jour toutes les 15 minutes en moyenne, donc pour moi ce n'est pas ca qui fraine. je ne comprend pas le problème
     
  99. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 274
    J'aime reçus:
    0
    c'est quoi le problème ? que gg ne crawle pas assez vite ou qu'il ne fasse pas apparaitre "plus rapide" dans l'interface ?
     
  100. pascalp32
    pascalp32 Nouveau WRInaute
    Inscrit:
    11 Juillet 2008
    Messages:
    2
    J'aime reçus:
    0
    Bonjour à tous,

    Je possède un site communautaire et depuis 2 mois, j'ai ouvert mon "e-shop".
    Depuis que j'ai mis un "site map" automatisé (OS Commerce) sur ce dernier, et que je modifie le site tous les jours (d'où le site map), l'option "plus rapide " est apparue :

    [​IMG]

    a+
     
Chargement...
Similar Threads - Vitesse exploration Google Forum Date
Vitesse d'exploration googlebot Crawl et indexation Google, sitemaps 18 Avril 2012
Configuration de la vitesse d'exploration de Googlebot Crawl et indexation Google, sitemaps 5 Décembre 2008
Vitesse d'Exploration Google Référencement Google 26 Octobre 2007
Stats vitesse d'exploration: en panne? Crawl et indexation Google, sitemaps 12 Juin 2007
Vitesse d'exploration Crawl et indexation Google, sitemaps 18 Avril 2007
Problème de vitesse d'affichage des pages sur Analytics Google Analytics 26 Avril 2022
vitesse de chargement et taille d'une page Développement d'un site Web ou d'une appli mobile 7 Avril 2022
WordPress GT Metrix : comment tester sa vitesse au mieux ? Débuter en référencement 27 Juillet 2021
Vitesse lente en partie à cause d'adsense AdSense 17 Mai 2021
Vitesse de découverte d'un domaine Crawl et indexation Google, sitemaps 3 Avril 2021
Comment améliorer la vitesse de mon site Demandes d'avis et de conseils sur vos sites 19 Mars 2021
vitesse de chargement d'un site web Développement d'un site Web ou d'une appli mobile 9 Février 2021
Pagespeed insights : comment améliorer la vitesse d'une page ? Demandes d'avis et de conseils sur vos sites 10 Juin 2020
Améliorer la vitesse sous Wordpress : passer toutes les pages en article Administration d'un site Web 3 Avril 2020
WordPress Améliorer la vitesse: Minimize request size Développement d'un site Web ou d'une appli mobile 1 Mars 2020
Vitesse du site, temps de chargement etc Débuter en référencement 18 Février 2020
Cobaye pour tester vitesse site Problèmes de référencement spécifiques à vos sites 10 Janvier 2020
Améliorer la vitesse de mon site et le référencement Développement d'un site Web ou d'une appli mobile 7 Décembre 2019
Site lent, comment améliorer la vitesse ? Développement d'un site Web ou d'une appli mobile 15 Juin 2019
Quel outil fiable pour tester la vitesse du site? Référencement Google 2 Février 2019