Google : les aspects à améliorer

passion

WRInaute accro
Bonjour,
Ce titre vous parait un peu prétentieux pour être capable de lister avec professionnalisme les aspects défectueux du moteur de recherches Google ?
Peut-être... c'est pas faux !
On est pas là pour constituer un cahier des charges et faire des avenants pour que l'équipe technique s'en serve.
Mais si on se positionne comme simple utilisateur des services qu'il nous propose, là, on est en mesure de répertorier un ensemble d'éléments qui ne fonctionnent pas correctement chez lui.
Alors est-ce volontaire ?
Est-ce dans la TODOLIST ?
Whatever !
Aux yeux des webmasters et développeurs, GG est tout puissant puisqu'il est incontournable. Dès qu'il modifie quelque chose (algo, charte graphique), c'est repris par tout le web.
Mais les utilisateurs silencieux, c'est à dire NOUS. "Nous" qui envoyons un mail à GG et qui n'avons aucune réponse ou une réponse pré-formatée et bateau. "Nous" qui alimentons son moteur de recherches avec les sites que nous développons pour qu'il puisse ensuite les utiliser à ses fins pour ses utilisateurs. On a suffisamment de recul en expérience et en technicité pour se rendre compte que leurs réunions de pilotage chez GG, bah... qu'est-ce qu'ils foutent des fois ??!! (souvent)

Bon assez de blabla....
Je propose donc un topic qui liste les aspects défectueux de GG. Là, j'ai ouvert ce sujet dans la rubrique "référencement" donc ça devrait être essentiellement dans ce domaine mais bon... si les modos estiment qu'il doit être déplacé parce qu'il s'élargit à tous les services de GG : Gmail, etc... à vous de voir !
Attention, je n'ai pas ouvert ce topic pour se défouler. Et j'espère que vous en ferez de même. ça n'aurait aucun intérêt et les critiques ne seraient pas constructives. Non... je ne tire pas sur l'ambulance. Mais certaines choses me paraissent aberrantes !

Allez je commence les hostilités !

A- Console search :
  1. Il lance une V2 de sa console alors qu'on doit jongler entre l'ancienne et la nouvelle pour accéder à toutes les fonctionnalités. Aberrant non ?! Comment une société comme GG puisse accepter de lancer une nouvelle version pas finie ?

B- Moteur de recherche :
  1. Googlebot utilise normalement un fichier "robots.txt". Il passe suffisamment pour faire la maj sur les URLS existantes. Il se vante de sa réactivité pour indexer des commentaires des réseaux sociaux. Comment est-il possible qu'il faut souvent batailler pour que certaines urls "noindex" soient réellement retirées de l'index ?
  2. Il en est de même pour une page existante textuellement modifiée. Il faut souvent attendre pour que la page modifiée soit réellement visible dans l'index.
  3. Pourquoi une telle lenteur pour indexer un nouveau site ?
  4. Puisque les backlinks de masse sont prohibés, pourquoi GG n'est-il pas capable en fonction de son expérience de ses utilisateurs d'indexer un nouveau site et d'être capable de s'appuyer sur cette expérience pour drainer du trafic sur ce site? Non... il va attendre patiemment les signaux des autres pour ensuite bouger. En clair, il va attendre que votre site commence à avoir des backlinks de sites tiers pour qu'ensuite il vous attribue une certaine confiance. C'est le comportement des foireux ça ! Puisqu'il est capable de sortir le taux de recherches d'un mot-clé dans adwords et par zone géographique, pourquoi ne peut-il pas s'appuyer de toutes ses informations précieuses pour se décoller de l'influence des soit-disant "backlinks naturels" ? Alors que nous montons toutes et tous, des stratégies pour accroître le taux de BL. y'a rien de naturel là-dedans! Et GG le sait évidemment ! C'est de notoriété public ! Même si le site est indexé, les stats commenceront à bouger QUE lorsque le site commencera à totaliser une certain nombre de backlinks.

Voilà... un peu de lecture mais je trouve que le sujet peut-être intéressant avec vos observations.
A vous la plume o_O
 

rick38

WRInaute passionné
Tu parles du robots.txt en parlant du noindex dans le même paragraphe, il y a peut-être confusion : robots.txt n'est pas fait pour désindexer des pages, si une page est déjà indexée, la mettre en Disallow dans robots.txt ne donne pas l'ordre de la désindexer, c'est donc normal. Elle sera enlevée un jour mais on ne sait pas quand. Beaucoup se trompent. Pour désindexer, il faut mettre la balise meta noindex, et si on ne veut pas attendre le prochain passage du robot sur cette page (qui en plus ne se fera jamais si on a mis Disallow dans le robots.txt !), on peut accélérer en allant dans la console pour la retirer.
 

passion

WRInaute accro
Arf ! Oui dsl merci @rick38 mais je ne peux pas modifier mon message.
Oui j'étais parti pour parler du robots.txt et en faite, j'ai emboîté le pas sur la balise meta "noindex" o_O
 

Discussions similaires

Haut