Osons voir la vérité en face, Google regresse.
Depuis un certains temps déjà, le comportement du moteur d'indexation laisse penser qu'il a une araigné dans le plafond.
Voici quelque constatation sur un compte webmastertool associé à un site :
L'outil sitemap, vu d'ensemble, indique des avertissements d'erreur. je clique sur le détail. Il indique qu'un certain nombre d'url fournies dans le sitemap sont inaccessible pour cause d'erreur 5xx ou 4xx. Je teste les url, tout est Ok. Surprise, car j'utilise certaines de ces pages moi-même tout les jours, et je n'ai jamais constaté la moindre erreur d'accés.
Dans la vue d'ensemble du même compte cette fois, le rapport d'erreur d'exploration indique zero erreur 8O
Exalead de son coté ne semble rencontré aucune erreur, puisqu'il indexe tout ? Le serveur serait méchant-méchant avec Google, et il ne renvoie des erreurs que pour Google ? Rhooooo, méchant serveur
Le nombre de page indéxé maintenant.
La vue d'ensemble de l'outil sitemap, indique un nombre d'url indéxées égale au tiers du nombre de page du site, tandis que le détail du même outil, dit qu'il ne sait pas combien de page sont indéxé.... la commande "site" depuis Google donne des résultats encore différent (indique environ que la moitié des pages sont indéxées).
De plus, cette situation est figée depuis trois à quatre mois environ (pas de "datarefresh" qui tienne donc).
Bilan : Google n'arrive même plus à se consulter correctement lui-même.
Question : comment un moteur qui ne sait pas ce qu'il indexe, ni si il l'indexe (on ne sait pas ce qu'il fait), comment peut-il renvoyer des résultats pertinents ?
Pendant ce temps, Exalead évolue, et viens d'ajouter dans ses résultats de recherche, l'affichage de critères d'affinement selectionnés réponse par réponse. Au cours des deux dernières semaines, Exalead a indéxé 57 millions de pages supplémentaires.... pendant que Google regresse, Exalead avance (et dire qu'il y en a qui continue à se mettre à genoux devant Google).
Edit OTP : mais pourquoi tous ces liens ??????
Depuis un certains temps déjà, le comportement du moteur d'indexation laisse penser qu'il a une araigné dans le plafond.
Voici quelque constatation sur un compte webmastertool associé à un site :
L'outil sitemap, vu d'ensemble, indique des avertissements d'erreur. je clique sur le détail. Il indique qu'un certain nombre d'url fournies dans le sitemap sont inaccessible pour cause d'erreur 5xx ou 4xx. Je teste les url, tout est Ok. Surprise, car j'utilise certaines de ces pages moi-même tout les jours, et je n'ai jamais constaté la moindre erreur d'accés.
Dans la vue d'ensemble du même compte cette fois, le rapport d'erreur d'exploration indique zero erreur 8O
Exalead de son coté ne semble rencontré aucune erreur, puisqu'il indexe tout ? Le serveur serait méchant-méchant avec Google, et il ne renvoie des erreurs que pour Google ? Rhooooo, méchant serveur

Le nombre de page indéxé maintenant.
La vue d'ensemble de l'outil sitemap, indique un nombre d'url indéxées égale au tiers du nombre de page du site, tandis que le détail du même outil, dit qu'il ne sait pas combien de page sont indéxé.... la commande "site" depuis Google donne des résultats encore différent (indique environ que la moitié des pages sont indéxées).
De plus, cette situation est figée depuis trois à quatre mois environ (pas de "datarefresh" qui tienne donc).
Bilan : Google n'arrive même plus à se consulter correctement lui-même.
Question : comment un moteur qui ne sait pas ce qu'il indexe, ni si il l'indexe (on ne sait pas ce qu'il fait), comment peut-il renvoyer des résultats pertinents ?
Pendant ce temps, Exalead évolue, et viens d'ajouter dans ses résultats de recherche, l'affichage de critères d'affinement selectionnés réponse par réponse. Au cours des deux dernières semaines, Exalead a indéxé 57 millions de pages supplémentaires.... pendant que Google regresse, Exalead avance (et dire qu'il y en a qui continue à se mettre à genoux devant Google).
Edit OTP : mais pourquoi tous ces liens ??????