Etude SEO sur 2172 sites membres de la Fnaim

Panel analysé : 2172 sites membres de la Fnaim

Date de l'analyse : 10 juin 2015

Les critères fondamentaux du référencement sont rarement appliqués sur les 2172 sites membres de la Fnaim que nous avons étudiés, alors que le SEO est vital pour eux.

Cette étude My Ranking Metrics révèle qu'ils pourraient facilement augmenter leur visibilité Google et donc leur chiffre d'affaires.

1 Introduction

Cette page présente un rapport d'étude menée par Ranking Metrics avec notre outil d'audit technique SEO RMTech. L'objectif était d'étudier le degré d'optimisation technique du référencement de centaines de sites afin de vérifier si les fondamentaux du référencement étaient appliqués. Pour cela, nous utilisons aussi bien des algorithmes mis au point dans notre centre de R&D que des analyses simples comme la recherche de liens cassés ou de balises TITLE vides, pour ne citer que 2 exemples.

Comme tous les moteurs, on peut distinguer 3 étapes dans l'analyse qu'effectue Google sur chaque site :

  • le crawl : un robot visite les pages du site et récupère une copie chez Google
  • l'indexation : si les pages récupérées remplissent certains critères, elles sont indexées
  • le ranking : quand un internaute effectue une recherche, Google cherche parmi ses pages indexées celles qui sont les plus pertinentes pour la requête

Voici les caractéristiques du panel de sites de l'étude :

  • étude effectuée le 10 juin 2015
  • panel : 2172 sites membres de la Fnaim
  • 2 172 sites analysés (5 000 URL maximum par site)
  • 2 931 192 URL explorées
  • 2 060 638 de pages HTML analysées
  • 785 238 URL testées dans les liens sortants externes

RMTech est un outil de la plateforme SaaS My Ranking Metrics qui permet à chaque utilisateur de lancer lui-même des audits techniques SEO sur les sites de son choix. Le rapport d'audit fourni lui fait découvrir toutes les erreurs qui dégradent le référencement naturel du site. Les explications et les annexes détaillées permettent de tout corriger et donc d'optimiser le référencement du site.

2 Critères techniques fondamentaux du SEO

Comme pour chaque audit, nous avons étudié les sites sur plusieurs dizaines de critères techniques, regroupés en différentes familles. Avant de dévoiler les résultats, nous définissons les termes employés et les mesures effectuées.

  • Pages répondant en erreur :
    • en interne, il faut éviter de faire des liens vers des pages en erreur (404, 410, 500, etc.) ou même qui se font rediriger (c'est moins efficace qu'un lien direct).
    • le nombre de pages répondant en erreur est égal au nombre d'URL explorées dont le code HTTP retournée par le serveur est différent de 200
  • Pages non indexables :
    • Sauf cas particuliers, il ne devrait pas y avoir de liens internes vers des pages interdites d'indexation (et pourtant autorisées au crawl). Si jamais une page est bloquée par erreur à l'indexation, elle réduit les performances SEO du site puisqu'elle ne sort jamais dans les résultats de recherche...
    • le nombre de pages non indexables est égal au nombre d'URL HTML explorées sans erreur ayant ni interdirection d'indexation (balise meta robots noindex ou none, ou entête HTTP X-Robots-Tag noindex) ni URL canonique différente de l'URL explorée.
  • Pages trop lentes :
    • Il s'agit ici des pages trop lentes à télécharger (HTML brut, hors fichiers externes tels que les images, CSS et Javascript). La présence de pages trop lentes peut dégrader le crawl de Google et souvent aussi l'expérience utilisateur et donc au final le référencement.
    • le nombre de pages trop lentes est égal au nombre d'URL HTML explorées sans erreur dont le temps de téléchargement est supérieur à 600ms (seuil fixé d'après notre expérience).
  • Pages trop profondes :
    • Pour qu'une page soit efficace en référencement naturel, il faut éviter qu'elle soit trop profonde dans le site (il faut donc pouvoir la trouver en peu de clics).
    • Pour RMTech, la profondeur d'une page est le nombre de clics sur des liens nécessaires pour l'atteindre en partant de la page de départ (accueil), en prenant le plus court chemin s'il y en a plusieurs possibles.
    • le nombre de pages trop profondes est égal au nombre d'URL HTML explorées sans erreur dont la profondeur est supérieure à la profondeur maximale recommandée par notre algorithme pour chaque site (cette valeur se trouve dans le rapport d'audit du site). La règle des 3 clics n'est en effet pas adaptée à tous les sites, cela dépend de leur taille.
  • Titres non optimisés :
    • La balise TITLE étant un élément prioritaire d'optimisation du référencement, nous l'analysons au travers d'une dizaine de critères.
    • le nombre de pages ayant un titre non optimisé est égal au nombre de pages indexables correspondant à un ou plusieurs des cas suivants :
      • balise title absente ou vide
      • balise title trop courte (3 types sont distingués)
      • balise title trop longue
      • balise title non unique (dupliquée ailleurs sur le site)
      • balise title sur-optimisée (3 types sont distingués)
  • Descriptions non optimisées :
    • La balise meta description joue un rôle majeur dans l'incitation au clic dans les pages de résultats de Google, c'est pourquoi il est important de bien la rédiger.
    • le nombre de pages ayant une description non optimisée est égal au nombre de pages indexables correspondant à un ou plusieurs des cas suivants :
      • balise meta description absente ou vide
      • balise meta description trop courte (3 types sont distingués)
      • balise meta description non unique (dupliquée ailleurs sur le site)
  • Contenus non optimisés :
    • Sans contenu, une page a peu de chances d'avoir des bonnes performances en termes de référencement. Sans aller jusqu'à une analyse sémantique ou linguistique, il est possible d'identifier des problèmes graves à ce niveau.
    • le nombre de pages ayant un contenu non optimisé est égal au nombre de pages indexables correspondant à un ou plusieurs des cas suivants :
      • absence de balise H1
      • contenu principal de la page trop court (nos analyses portent sur l'ensemble de la page, en incluant le haut de page, les éventuelles marges et le pied de page, mais notre algorithme sait s'adapter à chaque site pour se concentrer sur la zone utile de chaque page, celle qui généralement change d'une page à l'autre, c'est-à-dire le contenu qui intéresse vraiment l'internaute)
      • page faisant moins de 5 liens follow vers d'autres pages du site
      • page dont le contenu est strictement identique à celui d'une ou plusieurs autres pages (contenu dupliqué total appelé DUST pour Duplicate URL Same Text)
      • page dont l'URL contient un identifiant de session
      • page dont l'URL contient un paramètre de tracking (passé derrière le signe ?)
  • Liens sortants externes en erreur :
    • Même si cela ne joue peut-être pas un rôle direct dans l'algorithme de Google, il faut éviter de faire des liens sortants externes qui aboutissent à une URL en erreur. En effet, c'est décevant pour l'internaute et peut-être mauvais pour la note de confiance attribuée au site par Google.
    • le nombre de liens sortants externes en erreur est égal au nombre d'URL externes (autre nom de domaine) recevant un lien follow et renvoyant un code HTTP d'erreur (4xx ou 5xx) ; les réseaux sociaux sont exclus de cette analyse.

3 Résultats

Dans les tableaux ci-dessous, nous indiquons pour chaque site étudié un pourcentage correspondant à son taux d'erreur pour chacune des familles de critères.

Pour chaque famille de critères, le taux d'erreur d'un site est égal au nombre de pages (ou de liens) en erreur divisé par le nombre de pages (ou de liens) étudié(e)s. Par exemple, concernant l'optimisation de la balise title, un taux d'erreur de 12 % signifie que 12 % des pages étudiées ont une balise title non optimisée.

Pour se donner toutes les chances d'être bien positionné dans Google, il est donc impératif d'avoir un taux d'erreur le plus faible possible. Rappelez-vous, il ne s'agit ici que des fondamentaux du SEO !

Cliquez sur une colonne pour changer le tri, ou filtrez pour chercher un site en particulier. Cliquez sur un nom de site pour le visiter.

Site TS crawl Date de l'exploration Pages répondant en erreur Pages non indexables Pages trop lentes Pages trop profondes

Voici les taux d'erreurs pour les autres familles de critères :

Site TS crawl Date de l'exploration Titres non optimisés Description non optimisée Contenus non optimisés Liens sortants externes en erreur

Si vous aussi vous souhaitez le même audit pour votre site, c'est possible ! Connectez-vous ou créez votre compte My Ranking Metrics. La version gratuite du rapport fournit la synthèse des problèmes rencontrés ainsi que des exemples d'erreurs. La version complète payante fournit 100 % des informations.

4 Optimisations possibles

Au lieu de voir uniquement le mauvais côté des choses (les taux d'erreur ci-avant), nous avons cherché à savoir si les sites de ce panel disposent de possibilités d'optimisation de leur référencement (SEO). Comme vous pourrez le constater dans le tableau ci-dessous, c'est souvent le cas !

Nous avons donc fait le point sur l'ensemble des optimisations possibles sur chaque page HTML répondant sans erreur ("code 200") :

  • page faisant un lien interne en erreur (code HTTP 4xx ou 5xx)
  • page trop lente
  • page trop profonde
  • page avec balise title trop courte, trop longue, non unique ou sur-optimisée
  • page avec balise meta description absente, trop courte ou non unique
  • page sans balise h1
  • page avec un contenu principal trop court
  • page faisant moins de 5 liens internes follow
  • page dont le contenu est dupliqué à 100%
  • page dont l'URL contient un identifiant de session ou des paramètres de tracking
  • page faisant un lien sortant externe follow en erreur (code HTTP 4xx ou 5xx)

Le tableau ci-dessous indique pour chaque site le nombre de pages HTML (et le % correspondant) pour lesquelles RMTech a identifié une ou plusieurs optimisations possibles du référencement.

Site TS crawl Date de l'exploration Nb de pages avec au moins 1 optimisation possible % des pages HTML en code 200 Nb de pages avec au moins 4 optimisations possibles % des pages HTML en code 200

* Pour ce site, notre étude a porté sur 5 000 URL. Il est donc probable qu'il y ait d'autres URL concernées en plus de celles indiquées dans ce tableau. Bien entendu, RMTech sait gérer des sites énormes, des millions d'URL si besoin...

5 Performances des sites pour chaque famille de critères

Comme indiqué ci-avant, pour chaque famille de critères, le taux d'erreur d'un site est égal au nombre de pages (ou de liens) en erreur divisé par le nombre de pages (ou de liens) étudié(e)s. Par exemple, concernant l'optimisation de la balise title, un taux d'erreur de 12 % signifie que 12 % des pages étudiées ont une balise title non optimisée.

Nous avons défini 3 niveaux d'optimisation, avec un code couleur associé :

  • optimisation correcte : taux d'erreur < 5%
  • mauvaise optimisation : 5% <= taux d'erreur < 30%
  • très mauvaise optimisation : taux d'erreur >= 30%

Pour chaque famille de critères, nous présentons les performances des sites de ce panel. L'objectif est de repérer les types d'erreurs SEO les plus courantes. Comparez-vous à eux en effectuant un audit gratuit du référencement de votre site !

L'image ci-dessous résume les performances techniques SEO des sites du panel. Dans chaque graphique de type "camembert", nous montrons la répartition des sites du panel selon leur niveau d'optimisation.

N'hésitez pas à utiliser cette image sur votre site ou à la partager sur les réseaux sociaux !

Nous détaillons chaque famille ci-dessous. En survolant une zone des graphiques ci-dessous, vous obtiendrez dans une info-bulle le nombre de sites et le pourcentage correspondant à chaque tranche.

5.1 Pages répondant en erreur

En interne, il faut éviter de faire des liens vers des pages en erreur (404, 410, 500, etc.) ou même qui se font rediriger (c'est moins efficace qu'un lien direct).

5.2 Pages non indexables

Sauf cas particuliers, il ne devrait pas y avoir de liens internes vers ds pages interdites d'indexation (et pourtant autorisées au crawl). Si jamais une page est bloquée par erreur à l'indexation, elle réduit les performances SEO du site puisqu'elle ne sort jamais dans les résultats de recherche...

Les données que nous avons analysées montrent donc que :

Pages non indexables : 20 % des sites sont très mal optimisés !

c'est-à-dire que ces sites ont au moins 30 % de taux d'erreur sur leurs pages

5.3 Pages trop lentes

Au cours de notre étude, nous avons identifié les pages trop lentes à télécharger (HTML brut, hors fichiers externes tels que les images, CSS et Javascript). La présence de pages trop lentes peut dégrader le crawl de Google ainsi que l'expérience utilisateur et donc au final le référencement.

Les données que nous avons analysées montrent donc que :

Pages trop lentes : 20 % des sites sont très mal optimisés !

c'est-à-dire que ces sites ont au moins 30 % de taux d'erreur sur leurs pages

5.4 Pages trop profondes

Pour qu'une page soit efficace en référencement naturel, il faut éviter qu'elle soit trop profonde dans le site. Notre algorithme détermine la profondeur maximale recommandée pour chaque site (cette valeur se trouve dans le rapport complet du site).

Les données que nous avons analysées montrent donc que :

Pages trop profondes : 54 % des sites sont très mal optimisés !

c'est-à-dire que ces sites ont au moins 30 % de taux d'erreur sur leurs pages

5.5 Titres non optimisés

La balise TITLE étant un élément prioritaire d'optimisation du référencement, nous l'analysons au travers d'une dizaine de critères. Comme vous pouvez le constater ci-dessous, même si cela semble basique, de nombreux sites sont très mauvais à ce niveau...

Les données que nous avons analysées montrent donc que :

Titres non optimisés : 93 % des sites sont très mal optimisés !

c'est-à-dire que ces sites ont au moins 30 % de taux d'erreur sur leurs pages

5.6 Description non optimisée

La balise meta description joue un rôle majeur dans l'incitation au clic dans les pages de résultats de Google, c'est pourquoi il est important de bien la rédiger.

Les données que nous avons analysées montrent donc que :

Description non optimisée : 72 % des sites sont très mal optimisés !

c'est-à-dire que ces sites ont au moins 30 % de taux d'erreur sur leurs pages

5.7 Contenus non optimisés

Sans contenu, une page a peu de chances d'avoir des bonnes performances en termes de référencement. Sans aller jusqu'à une analyse sémantique ou linguistique, il est possible d'identifier des problèmes graves à ce niveau.

Les données que nous avons analysées montrent donc que :

Contenus non optimisés : 74 % des sites sont très mal optimisés !

c'est-à-dire que ces sites ont au moins 30 % de taux d'erreur sur leurs pages

5.8 Liens sortants externes en erreur

Même si cela ne joue peut-être pas un rôle direct dans l'algorithme de Google, il faut éviter de faire des liens sortants externes qui aboutissent à une URL en erreur. En effet, c'est décevant pour l'internaute et peut-être mauvais pour la note de confiance attribuée au site par Google.

6 Synthèse des résultats obtenus

Pour chaque famille de critères, nous présentons dans le tableau ci-dessous le taux d'erreur moyen calculé sur le panel de sites étudiés. Chaque pourcentage de ce tableau représente donc la moyenne (sur le panel) du pourcentage de pages en erreur :

Famille de critères Taux d'erreur moyen
Pages répondant en erreur 5,88 %
Pages non indexables 14,18 %
Pages trop lentes 16,95 %
Pages trop profondes 37,01 %
Titres non optimisés 78,35 %
Description non optimisée 61,71 %
Contenus non optimisés 64,84 %
Liens sortants externes en erreur 6,37 %

7 Générez vos propres études !

Vous aussi, vous pouvez générer exactement le même genre d'étude, gratuitement. Cela peut vous servir dans les situations suivantes :

  • vous souhaitez réaliser une étude permettant de vous situer par rapport à vos concurrents
  • vous faites partie d'un groupe et souhaitez étudier l'optimisation technique SEO des sites de vos filiales
  • vous êtes un comité régional ou départemental du tourisme ou un office de tourisme et souhaitez étudier l'optimisation technique SEO des sites touristiques de votre région
  • vous représentez une fédération, une association, un syndicat, une CCI ou toute autre organisation et souhaitez étudier l'optimisation technique SEO des sites de vos adhérents
  • vous êtes un franchiseur et souhaitez étudier l'optimisation technique SEO des sites de vos franchisés
  • vous êtes journaliste et souhaitez publier une étude sectorielle

Chaque étude sera privée, disponible dans votre compte MyRankingMetrics.

La création d'une étude est gratuite mais vous devez disposer d'au moins 2 rapports complets dans votre compte (elle ne fonctionne pas avec les rapports gratuits). Seuls les audits réalisés après le 2 avril 2015 sont éligibles à la création d'étude.

8 Vidéo d'un audit Google Panda avec RMtech

Le propriétaire d'un site ecommerce a effectué un audit de son site à l'aide de RMTech de My Ranking Metrics. Le rapport lui a fourni de nombreuses pistes d'optimisation et notamment certains points stratégiques pour l'algorithme Panda. Explications en vidéo !

9 À propos de Ranking Metrics

Cette étude a été réalisée par les experts SEO de Ranking Metrics à l'aide de la plateforme My Ranking Metrics (et plus précisément de l'outil RMTech). Ranking Metrics SARL a été fondée en 2005 par Olivier Duffez (de WebRankInfo), Antoine Chiarelli et Fabien Facériès. Dès sa création, nous avons souhaité développer une approche plus scientifique du référencement, basée sur l'expérience et le relevé de nombreuses "métriques". Ainsi, notre Labo est un lieu privilégié pour effectuer toutes sortes d'analyses de R&D orientées SEO.

En combinant les résultats de ces travaux à l'expérience concrète du quotidien (gestion de sites notamment WebRankInfo) et à la confrontation avec les milliers de participants à nos formations, nous avons pu mettre au point notre propre méthode SEO qui combine les avantages suivants :

  • efficacité des critères
  • simplicité de compréhension
  • rapidité de correction des problèmes

La théorie ne suffit pas, c'est pourquoi nous avons développé My Ranking Metrics, notre propre plateforme SEO d'outils dédiés à cette méthode. Jusqu'à présent réservée aux audits Premium Ranking Metrics, vous pouvez désormais profiter également de notre méthodologie au travers de RMTech. Vous disposez ainsi d'un haut niveau de qualité d'analyse représentant un avantage concurrentiel majeur pour la visibilité de votre site.

En plus du développement de cette plateforme, nous sommes parmi les leaders de la formation professionnelle en emarketing, que ce soit le SEO, Google Analytics, Google AdWords ou les réseaux sociaux. Consultez nos programmes détaillés de formation et n'hésitez pas à nous contacter pour nous détailler vos besoins.

Suivez-nous sur les réseaux sociaux !