Matt cutts annonce la disponibilité d'un nouveau data center, baptisé Bigdaddy, accessible sur 66.249.93.104 Il renvoie des résultats différents de ceux des autres data centers et pourrait bien représenter ce que sera Google d'ici peu.
Matt Cutts (ingénieur chez Google) vient d’annoncer qu’un nouveau data center a été mis en ligne. Baptisé Big Daddy, ce data center fournit des résultats différents de ceux des autres data centers, qui pourraient d’ailleurs se retrouver prochainement sur les data centers « officiels » de Google.
Au mois de décembre 2005, Matt Cutts avait fait allusion à un data center nommé BigDaddy (lire ici ses explications sur ce nom étrange), que certains avaient repéré (nouvelle adresse IP). Il donne maintenant quelques explications :
Les changements d’infrastructure laissent supposer que Google souhaite modifier sa plateforme. Est-ce pour indexer davantage de pages ? Ou bien plus souvent ? Ou bien analyser d’autres données plus complexes ?
D’après Matt Cutts, il faut s’attendre à voir sur Google le même type de résultats que ceux donnés par ce Big Daddy d’ici 1 à 2 mois environ.
Matt Cutts (ingénieur chez Google) vient d’annoncer qu’un nouveau data center a été mis en ligne. Baptisé Big Daddy, ce data center fournit des résultats différents de ceux des autres data centers, qui pourraient d’ailleurs se retrouver prochainement sur les data centers « officiels » de Google.
Au mois de décembre 2005, Matt Cutts avait fait allusion à un data center nommé BigDaddy (lire ici ses explications sur ce nom étrange), que certains avaient repéré (nouvelle adresse IP). Il donne maintenant quelques explications :
- ce data center est accessible sur 66.249.93.104
- en plus d’intégrer un meilleur algorithme et des données différentes, ce data center repose sur une nouvelle infrastructure
- les changements de positionnement visibles dès maintenant sont en partie dûs à une mise à jour importante de l’index effectuée le 27 décembre
- pour l’instant encore peu de modifications ont été apportées, d’autres viendront
- mieux gérer les URL canoniques (c’est-à-dire reconnaître quelle est l’URL à retenir pour une page qui est accessible à plusieurs URL ; un cas particulier concerne les sites qui sont accessibles avec et sans le sous-domaine www)
- mieux gérer les redirections 302
- fournir de meilleurs résultats pour les commandes site:URL (qui liste les pages indexées d’un site)
- améliorer globalement la qualité (ça, c’est pour le bla bla marketing…)
Les changements d’infrastructure laissent supposer que Google souhaite modifier sa plateforme. Est-ce pour indexer davantage de pages ? Ou bien plus souvent ? Ou bien analyser d’autres données plus complexes ?
D’après Matt Cutts, il faut s’attendre à voir sur Google le même type de résultats que ceux donnés par ce Big Daddy d’ici 1 à 2 mois environ.