Pendant de nombreuses années, les relations entre Google et les webmasters et surtout référenceurs n’était pas spécialement bonnes (il n’y a qu’à voir de quelle façon Google qualifie les « optimiseurs de sites »). Ensuite depuis 2008 j’ai eu l’impression que ça s’améliorait, notamment avec le blog Webmaster Central et le développement des outils GWT. Mais aujourd’hui on peut se demander si Google ne se fiche pas de nous… Explications.
Google impose sa loi
Ce n’est pas un hasard si j’ai utilisé le mot « loi » : très souvent dans le forum WebRankInfo des membres confondent la loi et les règles de Google ! Ils se demandent si ce qu’ils ont fait est légal alors qu’en réalité ils veulent s’assurer qu’ils respectent les règles imposées par le moteur de recherche.
Je ne vais pas revenir sur certains développements controversés de Google en ce qui concerne le référencement, mais simplement vous résumer certains propos de Matt Cutts lors d’une récente conférence (PubCon). Vous trouverez des compte-rendus (en anglais) sur SE Roundtable ici et là notamment.
Bloquer archive.org, une faute grave ?
Matt a indiqué que l’historique d’un site (ou plus précisément de son nom de domaine) était analysée par Google. Jusque là tout va bien, nous le savions déjà (ça me rappelle un audit pendant lequel nous avons appris au client que dans le passé son site très « sérieux » avait été destiné aux « adultes »…). Le problème est que Matt a précisé que son équipe regardait si le webmaster interdit au site archive.org d’indexer ses contenus et qu’en cas d’interdiction, Google considérait ça comme suspect. Il a même dit qu’il s’agissait d’un « énorme signal d’alarme rouge » (huge red flag). Depuis, on sait qu’il a précisé que cet élément n’était analysé que pour les sites déjà suspectés de spam par son équipe. L’a-t-il dit pendant la conférence ou seulement après sur Twitter une fois le buzz déclenché ?
Tout le monde comprend bien qu’il peut y avoir de nombreuses bonnes raisons de bloquer l’indexation au site archive.org, ne serait-ce que pour des histoires de droit d’auteur ou de propriété intellectuelle. C’est donc assez étonnant que Matt mentionne cela. D’ailleurs, il est évident que Google a les moyens d’analyser l’historique d’un site de façon autrement plus performante que ce que permet archive.org ! Bref sur ce point je suis assez d’accord avec Laurent.
Google souhaite favoriser les pages qui s’affichent rapidement
Autre élément somme toute assez étrange : Google aimerait favoriser les pages qui se chargent vite (à moins qu’il le fasse déjà ?). Là aussi il peut y avoir pas mal de cas complexes qui me laissent penser que ce critère n’est pas forcément super fiable. Car Matt ne semble pas parler du temps de téléchargement du code HTML mais de l’ensemble des éléments de la page. Quand le script Google Analytics rame, faut-il s’inquiéter pour son positionnement dans Google ? Le plus ridicule est que Matt a précisé qu’un site lent ne serait pas défavorisé. Donc en résumé les sites « non lents » sont favorisés sans que les sites lents soient défavorisés Donc les sites lents pourraient descendre dans le classement Google mais il ne faut pas considérer ça comme un problème !
Cela dit, il est vrai que pour les cas extrêmes, quand le site a un temps de réponse moyen très élevé (à tel point qu’une partie des visiteurs quitte le site), alors le positionnement peut baisser (en plus de l’indexation). Dans ces cas-là je conseille de corriger les problèmes techniques, éventuellement de changer d’hébergeur web, ce qui sera bénéfique à la fois pour les internautes et le référencement.
En réalité, Google ne cherche-t-il pas à se donner une bonne image, celle de celui qui ne se préoccupe que de l’internaute ? Ne cherche-t-il pas à faire la promotion de ses projets comme SPDY ?
Avoir plusieurs sites dans la même niche thématique, louche aux yeux de Google !
« Avoir plusieurs sites couvrant différents aspects de votre secteur d’activité est un signal d’alarme rouge pour Google » ! (la phrase de Matt : having multiple sites for different areas of the same industry can be a red flag to Google)
Ceux qui m’ont fait le plaisir de venir écouter mes conseils en formation savent que je suis très attaché à cette question : est-il plus efficace de faire plein de mini-sites ou un seul gros site ? Avec Fabien, nous sommes clairement de l’école qui conseille de se concentrer sur un seul site, de créer de la valeur et de la notoriété, tout étant ensuite plus facile. Ce n’est sans doute pas un hasard si tous les géants d’Internet qui ont réussi ont suivi cette voie. Cela n’empêche pas qu’il existe des cas où la création d’un mini-site supplémentaire est intéressante.
Cela dit, la façon dont Matt Cutts en parle me semble assez ridicule… Qu’il surveille de près ceux qui créent de multiples petits sites au contenu quasi vide, répété sur de nombreux noms de domaine : OK. Que Google catalogue comme spammeurs des webmasters sous prétexte qu’ils ont plusieurs sites sur leur thématique : non !
Votre avis ?
Je ne suis pas tout à fait de l’avis de Laurent qui pense que Google n’arrive plus à lutter contre le spam. Par contre je trouve que Google devrait revoir sa communication avec les webmasters et référenceurs en arrêtant de profiter de sa situation ultra-dominante pour imposer des règles de plus en plus ridicules. Et si Google remplaçait Matt par un autre employé ?
Google impose sa loi
Ce n’est pas un hasard si j’ai utilisé le mot « loi » : très souvent dans le forum WebRankInfo des membres confondent la loi et les règles de Google ! Ils se demandent si ce qu’ils ont fait est légal alors qu’en réalité ils veulent s’assurer qu’ils respectent les règles imposées par le moteur de recherche.
Je ne vais pas revenir sur certains développements controversés de Google en ce qui concerne le référencement, mais simplement vous résumer certains propos de Matt Cutts lors d’une récente conférence (PubCon). Vous trouverez des compte-rendus (en anglais) sur SE Roundtable ici et là notamment.
Bloquer archive.org, une faute grave ?
Matt a indiqué que l’historique d’un site (ou plus précisément de son nom de domaine) était analysée par Google. Jusque là tout va bien, nous le savions déjà (ça me rappelle un audit pendant lequel nous avons appris au client que dans le passé son site très « sérieux » avait été destiné aux « adultes »…). Le problème est que Matt a précisé que son équipe regardait si le webmaster interdit au site archive.org d’indexer ses contenus et qu’en cas d’interdiction, Google considérait ça comme suspect. Il a même dit qu’il s’agissait d’un « énorme signal d’alarme rouge » (huge red flag). Depuis, on sait qu’il a précisé que cet élément n’était analysé que pour les sites déjà suspectés de spam par son équipe. L’a-t-il dit pendant la conférence ou seulement après sur Twitter une fois le buzz déclenché ?
Tout le monde comprend bien qu’il peut y avoir de nombreuses bonnes raisons de bloquer l’indexation au site archive.org, ne serait-ce que pour des histoires de droit d’auteur ou de propriété intellectuelle. C’est donc assez étonnant que Matt mentionne cela. D’ailleurs, il est évident que Google a les moyens d’analyser l’historique d’un site de façon autrement plus performante que ce que permet archive.org ! Bref sur ce point je suis assez d’accord avec Laurent.
Google souhaite favoriser les pages qui s’affichent rapidement
Autre élément somme toute assez étrange : Google aimerait favoriser les pages qui se chargent vite (à moins qu’il le fasse déjà ?). Là aussi il peut y avoir pas mal de cas complexes qui me laissent penser que ce critère n’est pas forcément super fiable. Car Matt ne semble pas parler du temps de téléchargement du code HTML mais de l’ensemble des éléments de la page. Quand le script Google Analytics rame, faut-il s’inquiéter pour son positionnement dans Google ? Le plus ridicule est que Matt a précisé qu’un site lent ne serait pas défavorisé. Donc en résumé les sites « non lents » sont favorisés sans que les sites lents soient défavorisés Donc les sites lents pourraient descendre dans le classement Google mais il ne faut pas considérer ça comme un problème !
Cela dit, il est vrai que pour les cas extrêmes, quand le site a un temps de réponse moyen très élevé (à tel point qu’une partie des visiteurs quitte le site), alors le positionnement peut baisser (en plus de l’indexation). Dans ces cas-là je conseille de corriger les problèmes techniques, éventuellement de changer d’hébergeur web, ce qui sera bénéfique à la fois pour les internautes et le référencement.
En réalité, Google ne cherche-t-il pas à se donner une bonne image, celle de celui qui ne se préoccupe que de l’internaute ? Ne cherche-t-il pas à faire la promotion de ses projets comme SPDY ?
Avoir plusieurs sites dans la même niche thématique, louche aux yeux de Google !
« Avoir plusieurs sites couvrant différents aspects de votre secteur d’activité est un signal d’alarme rouge pour Google » ! (la phrase de Matt : having multiple sites for different areas of the same industry can be a red flag to Google)
Ceux qui m’ont fait le plaisir de venir écouter mes conseils en formation savent que je suis très attaché à cette question : est-il plus efficace de faire plein de mini-sites ou un seul gros site ? Avec Fabien, nous sommes clairement de l’école qui conseille de se concentrer sur un seul site, de créer de la valeur et de la notoriété, tout étant ensuite plus facile. Ce n’est sans doute pas un hasard si tous les géants d’Internet qui ont réussi ont suivi cette voie. Cela n’empêche pas qu’il existe des cas où la création d’un mini-site supplémentaire est intéressante.
Cela dit, la façon dont Matt Cutts en parle me semble assez ridicule… Qu’il surveille de près ceux qui créent de multiples petits sites au contenu quasi vide, répété sur de nombreux noms de domaine : OK. Que Google catalogue comme spammeurs des webmasters sous prétexte qu’ils ont plusieurs sites sur leur thématique : non !
Votre avis ?
Je ne suis pas tout à fait de l’avis de Laurent qui pense que Google n’arrive plus à lutter contre le spam. Par contre je trouve que Google devrait revoir sa communication avec les webmasters et référenceurs en arrêtant de profiter de sa situation ultra-dominante pour imposer des règles de plus en plus ridicules. Et si Google remplaçait Matt par un autre employé ?