J'ai fait une petite recherche et je n'ai pas trouvé de réponse à ma question sur les forums. J'aimerais savoir ce qui détermine la profondeur de chaque indexation ?
Je m'explique...
Au début, je pensais qu'à chaque indexation d'un site, les bots de google parcouraient tout le contenu accesible du site et remettait à jour toutes les pages. En actualisant le cache des pages qu'il connait déjà et en incluant les nouvelles.
Mais je me rend compte que ce n'est pas vraiment le cas... Avec Robostats, je vois que le bot de google visite assez souvent la page d'index mais il se limite souvent à celle-ci.
Recemment, il a pris en compte le niveau du dessous (les liens présents sur le page d'index) mais il s'est arrêté là.
Je pense que dans un futur (plus ou moins proche) il descendra d'encore un niveau et ainsi de suite... Du moins c'est la déduction que j'en ai faite.
Tout ceci amène ma question !!! Qu'est-ce qui définit si le bot doit descendre d'un niveau ou pas ?
Est-ce que le robot pour les nouvelles pages fonctionne totalement à part de celui pour les modifs ???
ideeZik
Je m'explique...
Au début, je pensais qu'à chaque indexation d'un site, les bots de google parcouraient tout le contenu accesible du site et remettait à jour toutes les pages. En actualisant le cache des pages qu'il connait déjà et en incluant les nouvelles.
Mais je me rend compte que ce n'est pas vraiment le cas... Avec Robostats, je vois que le bot de google visite assez souvent la page d'index mais il se limite souvent à celle-ci.
Recemment, il a pris en compte le niveau du dessous (les liens présents sur le page d'index) mais il s'est arrêté là.
Je pense que dans un futur (plus ou moins proche) il descendra d'encore un niveau et ainsi de suite... Du moins c'est la déduction que j'en ai faite.
Tout ceci amène ma question !!! Qu'est-ce qui définit si le bot doit descendre d'un niveau ou pas ?
Est-ce que le robot pour les nouvelles pages fonctionne totalement à part de celui pour les modifs ???
ideeZik