Votre site mérite un audit SEO avancé !

Conçu par des experts SEO reconnus, tout est simple pour vous :

1- Donnez l’URL de votre site et lancez l’audit

2- Votre site est crawlé et analysé sur nos serveurs

3- Corrigez les problèmes listés, dans l’ordre conseillé (recommandations détaillées)

Des data + des algos = des recos priorisées

Avec chaque rapport RM Tech, vous obtenez toutes les data classiques d’un audit SEO, ce qui est indispensable.

Mais ce n’est pas tout !

Nous estimons qu’il est aussi important de vous faire gagner du temps et de l’efficacité. Un audit de référencement doit aboutir à du concret (vos journées ne sont pas infinies).

Nos algorithmes exclusifs mis au point par nos experts (Olivier Duffez et Fabien Faceries) vous apportent de l’innovation :

  • la méthode Pages Zombies identifie les pages qui cumulent tous les problèmes. Elle permet d’en comprendre les causes pour les corriger, ainsi que de nettoyer les pages de trop mauvaise qualité irrécupérables
  • nous repérons les pages qui manquent de contenu dans la zone principale (et pas en tenant compte des menus, du footer et des barres latérales). Notre algo s’adapte à la typologie de site ou de page.
  • nous évaluons les pages les plus rentables à travailler en premier en fonction de leurs performances actuelles et de leur potentiel d’amélioration
  • nous calculons quelles pages ont le meilleur potentiel de croissance à passer de la page 2 des résultats Google à la page 1
  • etc.

L’indice Page Zombie est inclus nativement

La meilleure façon de distinguer les bonnes des mauvaises pages sur votre site, c’est de combiner l’évaluation de la qualité intrinsèque (cf. QualityRisk ci-dessous), c’est-à-dire le potentiel d’amélioration SEO de la page, avec les performances effectives (nb de visites générées grâce au référencement naturel, mais aussi nb de vues de la page toutes sources de trafic confondues).

Nous avons abouti à un algorithme inédit tenant compte de dizaines de métriques, permettant le calcul d’un indice zombie pour chaque page indexable.

Très important : les données servant aux calculs sont récupérées sur une période de 1 an, pour tenir compte des saisonnalités.

L’histogramme ci-dessous montre un exemple de répartition de l’indice zombie des pages d’un site :

Indice zombie RM Tech
Histogramme de répartition de l’indice zombie des pages du site audité par RM Tech

Le score RM Tech

Il représente le niveau d’optimisation du référencement naturel en ce qui concerne les éléments analysés sur le site (critères liés à la technique, aux contenus, aux liens internes, à la qualité…).

Nous recommandons d’atteindre 95 (score en vert) ; entre 70 et 95 le score est en jaune et en-dessous de 70 il est en rouge.

Score RM Tech
Le score RM Tech est une note globale (sur 100) représentant le degré d’optimisation SEO pour les critères on-site étudiés par RM Tech

QualityRisk, l’évaluation de la qualité

Google améliore sans arrêt son algorithme afin de favoriser les contenus de qualité et pénaliser les autres. C’est un objectif majeur pour l’algorithme Helpful Content ainsi que les Core Updates.

Nous ne prétendons pas pouvoir analyser la qualité des pages comme peut le faire l’algorithme de Google, mais nous avons tout de même développé un algorithme maison qui repère certains problèmes sur vos pages. Nous nous basons sur des aspects techniques mais aussi des éléments du contenu qui nuisent à l’expérience utilisateur.

Nous calculons un indice de risque pour chaque page, noté QR pour « Quality Risk » : plus il est élevé (le maximum étant 100), plus vous devriez étudier nos recommandations pour améliorer la qualité de la page.

Par expérience, nous vous conseillons de ne pas avoir de pages avec un QualityRisk supérieur à 20. Le nombre de pages indexables de trop mauvaise qualité est indiqué dans chaque rapport.

L’histogramme ci-dessous montre un exemple de répartition du Quality Risk des pages d’un site :

QualityRisk
Histogramme de répartition du score QualityRisk des pages du site audité par RM Tech

Lisez aussi notre guide pour savoir comment utiliser QualityRisk et Pages Zombies

Couplage inclus avec Search Console

Nous pensons que pour être efficace, il faut désormais travailler le Data SEO, c’est-à-dire l’optimisation du référencement grâce aux données.

Notre crawler en récupère un grand nombre en parcourant votre site, mais c’est encore plus efficace quand d’autres données utiles sont également disponibles.

C’est pourquoi RM Tech inclut (sans aucun surcoût) le couplage avec Google Search Console. Les métriques intéressantes pour le SEO sont récupérées avec les API officielles.

Grâce à des algorithmes développés par nos soins, nous générons des recommandations à forte valeur ajoutée et vous donnons accès à des métriques exclusives utiles pour prioriser vos actions. Par exemple l’indice zombie, dont on explique tout l’intérêt dans ce webinar.

Téléchargez toutes les données (Excel, CSV)

Bien entendu, chaque rapport d’audit est accompagné d’annexes contenant toutes les données, permettant de corriger absolument tous les problèmes identifiés par RM Tech.

Chaque annexe est disponibles aux formats Excel et CSV.

Vous pouvez télécharger l’ensemble des annexes en 1 clic dans une archive ZIP.

Des dizaines de critères d’analyse on site

Experts SEO, nous avons voulu un outil qui analyse les aspects techniques et le contenu de façon très complète. Voici les dizaines de points étudiés, regroupés en 8 familles.

  1. Pages répondant en erreur :
    • en interne, il faut éviter de faire des liens vers des pages en erreur (404, 410, 500, etc.) ou même qui se font rediriger (c’est moins efficace qu’un lien direct).
    • RM Tech fournit non seulement la liste des pages en erreur, mais aussi la liste de tous les endroits du site contenant le lien vers la page qui pose problème.
  2. Pages non indexables :
    • Sauf cas particuliers, il ne devrait pas y avoir de liens internes vers des pages interdites d’indexation (et pourtant autorisées au crawl). Si jamais une page est bloquée par erreur à l’indexation, elle réduit les performances SEO du site puisqu’elle ne sort jamais dans les résultats de recherche…
    • le nombre de pages non indexables est égal au nombre d’URL HTML explorées sans erreur ayant ni interdiction d’indexation (balise meta robots noindex ou none, ou entête HTTP X-Robots-Tag noindex) ni URL canonique différente de l’URL explorée.
    • RM Tech fournit non seulement la liste des URL non indexables (avec la raison) mais aussi la liste de tous les endroits du site contenant le lien vers la page qui pose problème.
  3. Pages trop lentes :
    • Il s’agit ici des pages trop lentes à télécharger (HTML brut, hors fichiers externes tels que les images, CSS et Javascript). La présence de pages trop lentes peut dégrader le crawl de Google et souvent aussi l’expérience utilisateur et donc au final le référencement.
    • le nombre de pages trop lentes est égal au nombre d’URL HTML explorées sans erreur dont le temps de téléchargement est supérieur à 600ms (seuil fixé d’après notre expérience).
    • RM Tech fournit le détail pour chaque URL, contrairement à Search Console qui ne donne qu’une moyenne pour l’ensemble des URL crawlées jour par jour.
  4. Pages trop profondes ou avec un mauvais maillage interne :
    • Pour qu’une page soit efficace en référencement naturel, il faut éviter qu’elle soit trop profonde dans le site (il faut donc pouvoir la trouver en peu de clics).
    • Pour RM Tech, la profondeur d’une page est le nombre de clics sur des liens nécessaires pour l’atteindre en partant de la page de départ (accueil), en prenant le plus court chemin s’il y en a plusieurs possibles.
    • le nombre de pages trop profondes est égal au nombre d’URL HTML explorées sans erreur dont la profondeur est supérieure à la profondeur maximale recommandée par notre algorithme pour chaque site (cette valeur se trouve dans le rapport d’audit du site). La règle des 3 clics n’est en effet pas adaptée à tous les sites, cela dépend de leur taille.
    • Concernant le maillage interne, RM Tech va très loin puisque nous étudions le nombre de liens entrants (backlinks) internes follow de chaque page, ainsi que les ancres (textes d’ancrages) associés. Le rapport liste les pages ayant trop peu de liens entrants internes, ou avec trop peu de diversité dans les ancres de liens, ce qui n’est pas optimal. Lisez le guide SEO du maillage interne.
  5. Titres non optimisés :
    • La balise TITLE étant un élément prioritaire d’optimisation du référencement, nous l’analysons au travers d’une dizaine de critères.
    • le nombre de pages ayant un titre non optimisé est égal au nombre de pages indexables correspondant à un ou plusieurs des cas suivants :
      • balise title absente ou vide
      • balise title trop courte (3 types sont distingués)
      • balise title trop longue
      • balise title non unique (dupliquée ailleurs sur le site)
      • balise title sur-optimisée (3 types sont distingués)
  6. Descriptions non optimisées :
    • La balise meta description joue un rôle majeur dans l’incitation au clic dans les pages de résultats de Google, c’est pourquoi il est important de bien la rédiger.
    • le nombre de pages ayant une description non optimisée est égal au nombre de pages indexables correspondant à un ou plusieurs des cas suivants :
      • balise meta description absente ou vide
      • balise meta description trop courte (3 types sont distingués)
      • balise meta description non unique (dupliquée ailleurs sur le site)
  7. Contenus non optimisés :
    • Sans contenu, une page a peu de chances d’avoir des bonnes performances en termes de référencement. Sans aller jusqu’à une analyse sémantique ou linguistique, il est possible d’identifier des problèmes graves à ce niveau.
    • le nombre de pages ayant un contenu non optimisé est égal au nombre de pages indexables correspondant à un ou plusieurs des cas suivants :
      • mauvaise utilisation des balises de titres H1, H2… H6 (9 points étudiés à ce niveau)
      • contenu principal de la page trop court (nos analyses portent sur l’ensemble de la page, en incluant le haut de page, les éventuelles marges et le pied de page, mais notre algorithme sait s’adapter à chaque site pour se concentrer sur la zone utile de chaque page, celle qui généralement change d’une page à l’autre, c’est-à-dire le contenu qui intéresse vraiment l’internaute)
      • page faisant moins de 5 liens follow vers d’autres pages du site
      • page dont le contenu est strictement identique à celui d’une ou plusieurs autres pages (contenu dupliqué total appelé DUST pour Duplicate URL Same Text)
      • page dont l’URL contient un identifiant de session
      • page dont l’URL contient un paramètre de tracking (passé derrière le signe ?)
  8. Liens sortants externes en erreur :
    • Même si cela ne joue peut-être pas un rôle direct dans l’algorithme de Google, il faut éviter de faire des liens sortants externes qui aboutissent à une URL en erreur. En effet, c’est décevant pour l’internaute et peut-être mauvais pour la note de confiance attribuée au site par Google.
    • le nombre de liens sortants externes en erreur est égal au nombre d’URL externes (autre nom de domaine) recevant un lien follow et renvoyant un code HTTP d’erreur (4xx ou 5xx) ; les réseaux sociaux sont exclus de cette analyse.

Avis clients

Voici quelques avis sur RM Tech rédigés par des clients :

Les experts SEO de My Ranking Metrics

Tous les outils, tutos et webinars de My Ranking Metrics ont été conçus et réalisés par nos 2 experts SEO.

Olivier Duffez

Olivier Duffez

Créateur de WebRankInfo et cofondateur
de Ranking Metrics

Fabien Facériès

Fabien Facériès

Cofondateur de Ranking Metrics