A la date d'aujourd'hui, il commence à être possible de tirer quelques conclusions définitives sur l'évolution du fonctionnement de Google.
1°) Fin des Deepcrawl
Cela fait des semaines que l'on attend les robots du deepcrawl, qui ne viennent pas. Google a renoncé de plus à utiliser les données du précédent deepcrawl. Pourquoi ?
Non, ce n'est pas parce Google a décidé par lubie de laisser des données périmées dans la base... Non, ce n'est pas non plus parce qu'ils ont eu un problème technique. Google a décidé de passer à "l'everflux" ...
On en est pas sûr à 100%, mais Googleguy l'a clairement laissé entendre (dans la mesure où l'adverbe "clairement" puisse réellement s'appliquer aux posts de Googleguy).
Le passage à l'everflux a quelques conséquences logiques immédiates :
- il n'existe plus qu'un seul type de robots : le "deepfreshbot", qui aspire tout ce qu'il peut régulièrement, pour alimenter l'index.
- l'index est alimenté beaucoup plus souvent en pages nouvelles qu'avant (phénomène déjà constatable) : le contraire ferait d'ailleurs perdre tout intérêt à l'everflux
- les seules pages qui peuvent correctement être indexées dans le cadre de l'everflux, sont celles qui peuvent bénéficier d'un PR estimé. Les autres ne peuvent pas être classées, donc malheur aux nouveaux sites qui n'ont pas encore de pagerank...
Ces pages qui rentrent dans l'index, contrairement aux données de freshbot, ne sont plus forcément datées, et restent dans l'index, ce qui signifient qu'elles se voient doter d'un PR stable.
Remarque 1 : pour l'instant, l'ajout de ces pages "non datées" se fait sans périodicité régulière visible.
Remarque 2 : l'entrée de pages datées à la mode freshbot existe toujours... (aujourd'hui, on voit des pages datées du 6 juin)
2°) Le système de prise en compte des backlinks et les filtres ont changé...
A mon avis, nous n'avons pas assez de recul pour comprendre la nature profonde de ces changements, et là, on se perd en conjectures. C'est peut-être lié à l'everflux, ou pas.
On peut faire trois constats :
- le nombre de baclinks compté par google est plus proche de la réalité qu'avant
- les backlinks sont choisis plus sévèrement qu'avant (d'où une chute de leur nombre)
- les données de backlinks retenues datent d'avant la Boston
Explication possible : google teste en ce moment la possibilité d'une mise à jour différente des backlinks, apportée par l'everflux, puisqu'elle ne peut plus être apportée par le deepcrawl...
3°) Le calcul du pagerank continue à imposer des mises à jour majeures à intervalles réguliers
Ce n'est donc peut-être pas la fin des Googledance. Contrairement à ce que beaucoup ont pu dire, les changements dans les SERP ne sont pas révolutionnaires. Il est clair que l'algorithme de pagerank utilisé dans les SERP post Dominic ressemble à ce que l'on connait depuis des mois.
On peut en déduire par conséquent que Google a toujours besoin d'effectuer les mêmes calculs sur ses index qui prenaient des jours, voire des semaines, et qui sont indispensables pour classer les pages sans PR...
Nouveauté : la base qui sert à ces calculs n'est plus un deepcrawl, mais une base mise à jour en permanence par everflux... Ce qui doit poser des problèmes nouveaux, comme par exemple le fait que la base est constituée d'éléments collectés sur une période de temps beaucoup plus longue... Gare aux erreurs 404 !
Googleguy a annoncé une Dance classique possible dans jours à venir... on sera vite fixé... Cela devrait se traduire par l'entrée des nouveaux sites dans l'index cette fois-ci.
Cela sous-entend aussi que les prochaines dances seront moins classiques... J'ai mon idée là-dessus, mais elle est trop "spéculative" pour la lacher maintenant. Disons que cela passe forcément par la possibilité de calculer un PR pour toute nouvelle page, sans attendre la prochaine Dance...
Cette dance devrait s'accompagner de l'arrivée également de backlinks frais...
Voilà : ce ne sont que des réflexions personnelles. Je n'ai pas d'entrées chez Google, pas de boule de cristal. Il s'agit juste de lancer un débat sur ce qui se passe vraiment chez Google.
1°) Fin des Deepcrawl
Cela fait des semaines que l'on attend les robots du deepcrawl, qui ne viennent pas. Google a renoncé de plus à utiliser les données du précédent deepcrawl. Pourquoi ?
Non, ce n'est pas parce Google a décidé par lubie de laisser des données périmées dans la base... Non, ce n'est pas non plus parce qu'ils ont eu un problème technique. Google a décidé de passer à "l'everflux" ...
On en est pas sûr à 100%, mais Googleguy l'a clairement laissé entendre (dans la mesure où l'adverbe "clairement" puisse réellement s'appliquer aux posts de Googleguy).
Le passage à l'everflux a quelques conséquences logiques immédiates :
- il n'existe plus qu'un seul type de robots : le "deepfreshbot", qui aspire tout ce qu'il peut régulièrement, pour alimenter l'index.
- l'index est alimenté beaucoup plus souvent en pages nouvelles qu'avant (phénomène déjà constatable) : le contraire ferait d'ailleurs perdre tout intérêt à l'everflux
- les seules pages qui peuvent correctement être indexées dans le cadre de l'everflux, sont celles qui peuvent bénéficier d'un PR estimé. Les autres ne peuvent pas être classées, donc malheur aux nouveaux sites qui n'ont pas encore de pagerank...
Ces pages qui rentrent dans l'index, contrairement aux données de freshbot, ne sont plus forcément datées, et restent dans l'index, ce qui signifient qu'elles se voient doter d'un PR stable.
Remarque 1 : pour l'instant, l'ajout de ces pages "non datées" se fait sans périodicité régulière visible.
Remarque 2 : l'entrée de pages datées à la mode freshbot existe toujours... (aujourd'hui, on voit des pages datées du 6 juin)
2°) Le système de prise en compte des backlinks et les filtres ont changé...
A mon avis, nous n'avons pas assez de recul pour comprendre la nature profonde de ces changements, et là, on se perd en conjectures. C'est peut-être lié à l'everflux, ou pas.
On peut faire trois constats :
- le nombre de baclinks compté par google est plus proche de la réalité qu'avant
- les backlinks sont choisis plus sévèrement qu'avant (d'où une chute de leur nombre)
- les données de backlinks retenues datent d'avant la Boston
Explication possible : google teste en ce moment la possibilité d'une mise à jour différente des backlinks, apportée par l'everflux, puisqu'elle ne peut plus être apportée par le deepcrawl...
3°) Le calcul du pagerank continue à imposer des mises à jour majeures à intervalles réguliers
Ce n'est donc peut-être pas la fin des Googledance. Contrairement à ce que beaucoup ont pu dire, les changements dans les SERP ne sont pas révolutionnaires. Il est clair que l'algorithme de pagerank utilisé dans les SERP post Dominic ressemble à ce que l'on connait depuis des mois.
On peut en déduire par conséquent que Google a toujours besoin d'effectuer les mêmes calculs sur ses index qui prenaient des jours, voire des semaines, et qui sont indispensables pour classer les pages sans PR...
Nouveauté : la base qui sert à ces calculs n'est plus un deepcrawl, mais une base mise à jour en permanence par everflux... Ce qui doit poser des problèmes nouveaux, comme par exemple le fait que la base est constituée d'éléments collectés sur une période de temps beaucoup plus longue... Gare aux erreurs 404 !
Googleguy a annoncé une Dance classique possible dans jours à venir... on sera vite fixé... Cela devrait se traduire par l'entrée des nouveaux sites dans l'index cette fois-ci.
Cela sous-entend aussi que les prochaines dances seront moins classiques... J'ai mon idée là-dessus, mais elle est trop "spéculative" pour la lacher maintenant. Disons que cela passe forcément par la possibilité de calculer un PR pour toute nouvelle page, sans attendre la prochaine Dance...
Cette dance devrait s'accompagner de l'arrivée également de backlinks frais...
Voilà : ce ne sont que des réflexions personnelles. Je n'ai pas d'entrées chez Google, pas de boule de cristal. Il s'agit juste de lancer un débat sur ce qui se passe vraiment chez Google.