Good morning, Ohayo gosaïmasu, Sba7 nnour, Guten tag,
Une petite colle, une question que je me pose : pourquoi le robot Google crawl t-il bien plus qu’il ne le serait nécessaire, des pages qui changent bien moins souvent qu’il ne les re-indexe ?
Exemple : une ou des pages sont mises à jours 2 ou 3 fois par an, voir une fois par an, le SiteMap n’est pas erroné et donne des date de mise à jour correct, et pourtant Google les re-indexe parfois tous les jours, et même quelque fois plusieurs fois dans la journée.
Pourquoi ? :?:
Est-ce que la fréquence de mise à jour suggéré par le SiteMap et qui est souvent mal évaluée quand ça change trop peu souvent peut avoir son importance ici ? Mais je pensais que le robot Google n’en tenait pas trop compte et se fiait plutôt à la fréquence de mise à jour effective.
Je me demande quand-même pourquoi il re-crawl si fréquemment des pages dont il doit bien avoir logué quelque-part qu’elles ne changent pas si fréquemment.
Any idea ? How does it work ?
Une petite colle, une question que je me pose : pourquoi le robot Google crawl t-il bien plus qu’il ne le serait nécessaire, des pages qui changent bien moins souvent qu’il ne les re-indexe ?
Exemple : une ou des pages sont mises à jours 2 ou 3 fois par an, voir une fois par an, le SiteMap n’est pas erroné et donne des date de mise à jour correct, et pourtant Google les re-indexe parfois tous les jours, et même quelque fois plusieurs fois dans la journée.
Pourquoi ? :?:
Est-ce que la fréquence de mise à jour suggéré par le SiteMap et qui est souvent mal évaluée quand ça change trop peu souvent peut avoir son importance ici ? Mais je pensais que le robot Google n’en tenait pas trop compte et se fiait plutôt à la fréquence de mise à jour effective.
Je me demande quand-même pourquoi il re-crawl si fréquemment des pages dont il doit bien avoir logué quelque-part qu’elles ne changent pas si fréquemment.
Any idea ? How does it work ?