méthode SEO Core Update Google
Portrait Olivier Duffez

Olivier Duffez

Créateur de WebRankInfo,
consultant en référencement

Core Update Google : ma méthode SEO

Suite au dernier Core Update Google, le SEO de votre site a peut-être plongé... Suivez cette méthode simple pour trouver comment remonter. Idem pour renforcer votre référencement et éviter une chute à la prochaine mise à jour...

Accès rapide : définition de Core Update - que faire après un Core Update ? - les dernières mises à jour de l'algo de Google

C'est quoi un Core Update ?

Google fait des milliers de mises à jour chaque année, mais certaines sont bien plus importantes que d'autres : on les appelle Core Update. Il y en a environ 3 ou 4 par an.

Dans le passé, certaines grosses mise à jour avaient des noms spéciaux. Les plus anciens se rappellent par exemple de l'arrivée de Panda ou Penguin. Voyez ma la liste des principales mises à jour de Google. Désormais, la plupart des Core Update sont nommés à partir du mois du déploiement.

Google met sans doute plusieurs mois à préparer un Core Update, pour adapter son algorithme. Le jour où il est déployé, vous pouvez remarquer des gros changements pour votre site dans les SERP. Ces variations peuvent durer plusieurs jours, généralement près de 2 semaines. Il est donc inutile de vouloir analyser ou modifier quelque chose tant que le Core Update n'est pas officiellement entièrement déployé.

A mon avis, les données sur lesquelles Google se base pour un Core Update ne datent pas de la veille du déploiement. Je suppose qu'elles ont été collectées plusieurs semaines avant. Donc si vous avez chuté, ce n'est sans doute pas à cause de ce que vous avez fait juste avant (quelques jours). De la même façon, pour remonter il faut être patient.

Les derniers Core Update officiels sont les suivants (lien vers la discussion du forum WebRankInfo) :

Que faire après un Core Update ?

Remonter après une chute au cours d'un Core Update nécessite généralement un travail important. Vous devez évidemment vous assurer que tous les fondamentaux SEO sont parfaitement en place sur votre site. Et ensuite, il faut chercher les détails qui pourraient expliquer votre perte de trafic.

Je précise que j'utilise la même méthode pour :

  • un site qui vient de chuter avec une grosse mise à jour de Google
  • un site dont le SEO va bien mais qui souhaite anticiper les prochains Core Updates

Concrètement, vous devez :

  1. lancer un audit RM Tech en version complète avec impérativement les couplages Search Console et Analytics
  2. suivre les étapes ci-après pour identifier dans quelle situation vous êtes et quelles pages il faut étudier
  3. finir par une analyse humaine sur les pages précises qui ont été repérées

Si vous n'avez pas d'audit RM Tech en version complète, demandez à bénéficier d'un pré-audit RM Tech avec analyse des pages zombies. C'est gratuit (si vous n'en avez pas encore profité)...

Voulez-vous voir ce que ça donne ? Demandez ici votre pré-audit

Une fois que votre rapport d'audit est prêt, regardez les 2 premiers graphiques dans la synthèse.

D'où viennent les données prises en exemples ?

Pour ce qui suit, j'aurais pu décrire une fois de plus les critères ayant le plus d'impact avec chaque Core Update, mais c'est souvent trop générique.

Alors j'ai préféré vous décrire ce que vous devriez faire. Grâce à mes outils sur My Ranking Metrics, le process est très simplifié.

Je vais aussi m'appuyer sur 3 exemples pris parmi les 53 sites analysés :

  • site A d'environ 1200 pages (ecommerce) : il a plein de problèmes, n'a pas exploité son potentiel, et a encore chuté avec l'update
  • site B d'environ 15000 pages (site de contenu) : il a corrigé depuis quelques mois plein de choses, mais ça n'a pas suffi
  • site C d'environ 1700 pages (ecommerce) : il cartonne dans Google (et pourtant avait chuté l'année dernière)

Vous verrez ci-dessous des captures d'écran de leur audit RM Tech.

C'est parti !

QualityRisk aide à prédire le succès SEO

QualityRisk vous indique si vos pages sont a priori bien optimisées en termes SEO (principalement technique). Il faut être à 0 de risque.

Si vous avez trop de pages à indice supérieur à 20, vous ne pouvez pas vous plaindre : vous ne vous donnez pas de chances de réussir. C'est le cas du site A, pour lequel on peut aussi dire qu'il est encore loin d'avoir exploité le potentiel de trafic organique :

QualityRisk mauvais
On voit tout de suite que ce site n'a pas encore exploité le potentiel d'optimisation : QualityRisk est bien trop élevé

Voici l'histogramme du site B qui vient de chuter en juin, alors qu'il avait depuis peu obtenu ces belles statistiques (pages à faible QualityRisk) :

QualityRisk plutôt bon
QualityRisk plutôt bon, et pourtant le site a chuté récemment... ça s'explique avec l'analyse conjointe QualityRisk + Zombies

Comparez avec le site C qui a nettement gagné ! Il avait chuté au Core Update précédent et a fait un gros boulot ces derniers mois :

Bon QualityRisk
Les pages de ce site sont pratiquement toutes bien optimisées (QualityRisk faible)

OK, et maintenant ? Vous allez me dire que comme pour le site B, votre indice QualityRisk est super faible et pourtant vous avez été pénalisé par le dernier Core Update de Google.

C'est là que c'est assez nouveau je trouve : avoir QUE des pages avec un faible QualityRisk ne suffit plus.

L'indice Zombie aide à repérer les pages qui déçoivent trop

Voilà, c'est ça : l'internaute qui débarque sur votre site en provenance des SERP de Google, vous devez en prendre soin ! C'est la formule que j'utilise depuis des années : j'ai l'impression qu'elle n'a jamais été aussi adaptée.

Une page peut sembler bien faite (aucun problème technique, au contraire, et un contenu très complet) et pourtant Google ne semble pas (plus ?) en vouloir.

Il y a pas mal de raisons possibles, et vous les connaissez. Les fameux conseils génériques que vous lisez depuis longtemps. La page a trop de pub, est trop lente, n'a pas assez de mots (ou trop), des problèmes d'UX, etc. Ce sont d'excellents conseils, mais comment vous faites pour les étudier tous sur toutes vos pages et faire un bilan ?

C'est là que l'indice zombie vous fait gagner un temps de dingue !

Que vous ayez des centaines, des milliers ou des dizaines de milliers de pages, l'outil vous montre quelles pages posent problème. Vous ne passez pas des heures à les chercher.

On va commencer par le cas évident du site A qui n'a pas encore assez bossé et pour lequel j'ai envie de dire "Vous ne pouvez pas vous plaindre" :

Indices Zombies élevés
Trop de pages à indices Zombies élevés = le site performe mal et chute souvent aux Core Updates

Voici la vue d'ensemble des indices zombies du site B qui vient de chuter, malgré je vous le rappelle des pages en apparence bonnes :

Indices Zombies trop élevés
Indices Zombies trop élevés malgré faible QualityRisk : le croisement des 2 indicateurs est précieux pour repérer les pages à problèmes

Ne me dites pas "oui mais c'est normal qu'il ait chuté, y'a que des pages zombies". Non !

  • d'abord parce qu'une page zombie ce n'est pas une page sans trafic, l'indice est basé sur de nombreux critères.
  • ensuite parce que l'indice zombie est calculé à partir des performances des 12 derniers mois. Si l'histogramme est mauvais juste après un Core Update, c'est qu'il était déjà mauvais avant !

Et voilà la tête de l'histogramme Zombies du site C dont le trafic organique vient de monter en flèche :

Bons indices zombies
Quasiment plus aucune page avec indice zombie élevé : ce site a fait une très grosse remontée avec les Core Updates de juin/juillet

Petite parenthèse : la personne qui gère le SEO de ce site C nous avait contactés Fabien et moi, car le trafic avait chuté de 40% en 1 mois, après un Core Update. On a donc appliqué exactement la méthode décrite ici. En lui montrant uniquement des pages à fort indice zombie, elle a d'abord été étonnée car il s'agissait de pages censées être au top de l'optimisation (référencement). Mais elle a trouvé assez vite pourquoi ces pages-là décevaient les internautes, et pas d'autres pages (pourtant avec parfois des sous-optimisations). Pour résumer, je dirais que les pages n'honoraient pas la promesse faite à l'internaute (dans la balise title et ailleurs dans la page). Il y avait une sorte de décalage avec l'intention de recherche. Avant ça passait, mais plus maintenant avec l'algo de Google... Et sans l'indice Zombies, elle n'arrivait pas à trouver quelles pages posaient problème.

Que faire avec les données fournies par RM Tech ?

Alors que faire concrètement avec le rapport d'audit ?

  1. Ouvrez l'annexe disponible dans la conclusion avec votre tableur et activez un filtre automatique. Dans Excel c'est dans "Données > Filtre" et dans Google Sheets c'est dans "Données > Créer un filtre".
  2. Filtrez pour ne conserver que les pages dont l'indice zombies est supérieur à 40
  3. Ajoutez aussi un filtre pour ne conserver que les pages dont l'indice QualityRisk est faible (par exemple inférieur à 20)
  4. Analysez les pages qui sont listées. Triez éventuellement par URL pour repérer des tendances par types de pages.
Update Google (SEO)

Pour finir...

Depuis 2018, chaque Core Update Google a mis en lumière la relation entre QualityRisk/Zombie et l'impact SEO.
Donc pour nous et pour cette update, il n'y a rien de réellement nouveau, sauf 1 point : c'est la première fois que nous voyons une chute aussi forte des pages ayant un Zombie élevé mais pourtant un QualityRisk faible.

Voulez-vous voir ce que ça donne ? Demandez ici votre pré-audit

Tout comme Fabien, je suis confiant dans la puissance de nos 2 algorithmes (QualityRisk et Zombies).

C'est pour ça qu'on vous propose de vérifier par vous-même sur votre propre site ce que ça donne pour vous.

Et si vous ne connaissez pas encore notre outil, on vous propose de le tester gratuitement.

Cet article vous a-t-il plu ?

Note : 4.1 (16 votes)
Cliquez pour voter !

9 commentaires

Julia

Bonjour Olivier,

J'ai une question : quels sont les updates à faire dans un article SEO en 2022 pour que Google considère ceux-ci comme tels?

Merci d'avance pour votre réponse.

Olivier Duffez

La question n'est pas assez précise et de toutes façons personne ne peut vraiment dire comment mesurer un changement pour qu'il soit suffisant pour Google.
Le 1er niveau est de faire assez de modifications (ou ajouts ou suppressions) du contenu pour que Google décide de réindexer la page. On le voit parfois quand Google affiche une date pour la page, dans le snippet. Un paragraphe modifié ou ajouté, en plus d'une date mise à jour, peut suffire.
Le 2nd niveau est de faire assez pour que Google considère la page comme bien meilleure, à tel point que ça fait remonter le site s'il avait chuté après un core update. Dans ce cas, non seulement les améliorations doivent être significatives, mais ça doit concerner une grosse partie du site. Et ça nécessite un délai d'au moins 2 mois je dirais.

Bugzero

Bonjour Olivier ,
Question :sur le point #3 :
"Ajoutez aussi un filtre pour ne conserver que les pages dont l’indice QualityRisk est faible (par exemple inférieur à 20)"

Pourquoi, au contraire, ne pas filtrer les QualityRisk supérieur à 20 ?

Désolé, je n'arrive pas à saisir ce point :(
Merci :)

Olivier Duffez

Les pages à QR supérieur à 20 sont généralement plus faciles à traiter, car il faut d'abord corriger leurs problèmes détectés par QR.
Celles à QR inférieur à 20 et pourtant NON performantes sont plus difficiles à repérer. Et l'analyse croisée avec Zombies est dans ce cas intéressante...

Florence

Merci pour cet article, effectivement rien d'étonnant dans les effets des updates. La méthode de l'indice zombie est très intéressante, à tester :)

julien

Ca serait bien de pouvoir plugger search console et matomo pour ceux qui n'ont plus analytics.
Sinon je suis d'accord avec votre analyse sur les core updates

Olivier Duffez

En effet Julien. Je suppose que tu as remplacé Analytics par Matomo à cause du RGPD

Iron Star

Excellent article qui synthétise bien ce qu'on observe, notamment au travers des nouveaux insights de la search console : si on déçoit le lecteur, Google s'en aperçoit et en tient compte !
Pour compléter, depuis début juin, je constate que la durée moyenne de lecture des sites dont nous nous occupons augmente alors que le trafic baisse. La qualité au détriment de la quantité, enfin !?

Olivier Duffez

La durée moyenne de visite n'est pas un KPI assez fiable je trouve, sauf si c'est un site avec un grand nombre de pages vues par visite (genre Le Bon Coin)

Les commentaires sont fermés