méthode SEO Core Update Google
Portrait Olivier Duffez

Olivier Duffez

Créateur de WebRankInfo,
consultant en référencement

Core Update Google juin/juillet 2021 : ma méthode SEO

Suite au Core Update Google de juin (et de juillet) 2021, le SEO de votre site a peut-être plongé… Suivez cette méthode simple pour trouver comment remonter. Idem pour renforcer votre référencement et éviter une chute à la prochaine mise à jour…

Remarque : je publie cet article avec un peu de recul par rapport au Core Update, car j’ai préféré faire des analyses avancées avant de fournir des conseils.

Accès rapide : les dernières mises à jour de l’algo de Google – analyse de 53 sites – la méthode à suivre pour votre site

Que s’est-il passé chez Google en juin et juillet 2021 ?

Les infos officielles

Comme plusieurs fois par an, Google officialise le déploiement d’une mise à jour globale de son algo, qu’on appelle un (Broad) Core Update. La particularité ici est que 2 Core Updates successifs et rapprochés ont été annoncés début juin.

  • Le Core Update de juin a démarré le 2 juin et s’est terminé le 12 juin. L’impact a pris quelques jours à être visible.
  • Le Core Update de juillet a démarré le 1er juillet et s’est terminé le 12 juillet. L’impact a été très rapide. Parfois pour des sites on remarque une inversion de l’impact de juin, comme ça arrive régulièrement.

On en discute sur le forum WebRankInfo : Core Update Google juin/juillet 2021.

Attention, il y a eu également d’autres mises à jour officielles chez Google :

  • le 15 juin : début de la prise en compte des Signaux Web Essentiels (Core Web Vitals). Le déploiement va s’étaler pendant tout l’été, jusqu’à fin août (source). En date du 17 juillet, aucune étude n’a encore détecté le moindre impact sur la visibilité dans Google. D’ailleurs, Google a expliqué que le Page Experience Signal sera un facteur léger : voyez-le plutôt comme un facteur pour départager des résultats, dans le style du HTTPS. J’ai aussi lu que Google indique qu’on ne peut voir un impact que si des pages sortent de la zone rouge pour passer OK.
  • les 23 et 28 juin : mises à jour contre le spam. L’impact semble avoir été très léger, même du côté des sites utilisant du Black Hat SEO. Apparemment ça concerne les résultats web traditionnels, ainsi que les images, mais pas le référencement local (source).

Mon avis basé sur l’analyse de 53 sites

D’abord en apparence on retrouve toujours les mêmes choses.

Même si on peut trouver des contre-exemples, généralement on voit une progression des sites ayant très bien optimisé l’aspect technique et investi dans du contenu éditorial de qualité. Dans les secteurs concurrentiels, les backlinks jouent évidemment un rôle déterminant. Et comme souvent, les effets sont bien plus forts si le site est considéré YMYL.

En fait, si vous connaissez le SEO, ça ressemble à des banalités !

Alors j’ai creusé un peu plus ! J’ai eu beaucoup d’échanges : sur les réseaux sociaux où j’avais parlé de cet article que je préparais, ainsi qu’avec des clients de ma plateforme SEO My Ranking Metrics. J’ai fait ça avec Fabien, mon associé chez My Ranking Metrics. On on a analysé 53 sites grâce à RM Tech :

  • 28 sites qui ont violemment chuté
  • 12 sites stables
  • 13 sites qui ont progressé

Il y a eu quelques cas où on n’a pas su expliquer pourquoi le site avait baissé dans Google. Mais on a été frappé de remarquer une caractéristique commune :

La plupart des sites pénalisés par le Core Update de juin/juillet prenaient « des risques » depuis quelques mois en ayant trop de pages qui déçoivent l’internaute. L’algo de Google semble moins « tolérant » qu’avant dans ce genre de cas. C’est particulièrement frappant avec l’analyse conjointe QualityRisk/Pages Zombies incluse dans chaque audit RM Tech.

Olivier Duffez (WebRankInfo)

Nous avons constaté que le lien entre QR/Zombies et l’impact SEO aux Core Updates est d’autant plus fort que le site est ancien (+ de 2 ans) et que le site est gros (+de 1000 URL). Nos conclusions sont les mêmes pour les sites ecommerce et les sites de contenu (et quelques rares autres types tels que les petites annonces).

Pour la suite de cet article, j’aurais pu décrire une fois de plus les critères ayant le plus d’impact avec chaque Core Update, mais c’est souvent trop générique.

Alors j’ai préféré vous décrire ce que vous devriez faire. Grâce à mes outils sur My Ranking Metrics, le process est très simplifié.

Je vais aussi m’appuyer sur 3 exemples pris parmi les 53 sites analysés :

  • site A d’environ 1200 pages (ecommerce) : il a plein de problèmes, n’a pas exploité son potentiel, et a encore chuté avec l’update
  • site B d’environ 15000 pages (site de contenu) : il a corrigé depuis quelques mois plein de choses, mais ça n’a pas suffi
  • site C d’environ 1700 pages (ecommerce) : il cartonne dans Google (et pourtant avait chuté l’année dernière)

Vous verrez ci-dessous des captures d’écran de leur audit RM Tech.

C’est parti !

La méthode pour savoir quoi faire !

Je précise que j’utilise la même méthode pour :

  • un site qui vient de chuter avec une grosse mise à jour de Google
  • un site dont le SEO va bien mais qui souhaite anticiper les prochains Core Updates

Concrètement, vous devez :

  1. lancer un audit RM Tech en version complète avec impérativement les couplages Search Console et Analytics
  2. suivre les étapes ci-après pour identifier dans quelle situation vous êtes et quelles pages il faut étudier
  3. finir par une analyse humaine sur les pages précises qui ont été repérées

Si vous n’avez pas d’audit RM Tech en version complète, demandez à bénéficier d’un pré-audit RM Tech avec analyse des pages zombies. C’est gratuit (si vous n’en avez pas encore profité)…

Voulez-vous voir ce que ça donne ? Demandez ici votre pré-audit

Une fois que votre rapport d’audit est prêt, regardez les 2 premiers graphiques dans la synthèse.

QualityRisk aide à prédire le succès SEO

QualityRisk vous indique si vos pages sont a priori bien optimisées en termes SEO (principalement technique). Il faut être à 0 de risque.

Si vous avez trop de pages à indice supérieur à 20, vous ne pouvez pas vous plaindre : vous ne vous donnez pas de chances de réussir. C’est le cas du site A, pour lequel on peut aussi dire qu’il est encore loin d’avoir exploité le potentiel de trafic organique :

QualityRisk mauvais
On voit tout de suite que ce site n’a pas encore exploité le potentiel d’optimisation : QualityRisk est bien trop élevé

Voici l’histogramme du site B qui vient de chuter en juin, alors qu’il avait depuis peu obtenu ces belles statistiques (pages à faible QualityRisk) :

QualityRisk plutôt bon
QualityRisk plutôt bon, et pourtant le site a chuté récemment… ça s’explique avec l’analyse conjointe QualityRisk + Zombies

Comparez avec le site C qui a nettement gagné ! Il avait chuté au Core Update de décembre 2020 et a fait un gros boulot début 2021 :

Bon QualityRisk
Les pages de ce site sont pratiquement toutes bien optimisées (QualityRisk faible)

OK, et maintenant ? Vous allez me dire que comme pour le site B, votre indice QualityRisk est super faible et pourtant vous avez été pénalisé par le dernier Core Update de Google.

C’est là que c’est assez nouveau je trouve : avoir QUE des pages avec un faible QualityRisk ne suffit plus.

L’indice Zombie aide à repérer les pages qui déçoivent trop

Voilà, c’est ça : l’internaute qui débarque sur votre site en provenance des SERP de Google, vous devez en prendre soin ! C’est la formule que j’utilise depuis des années : j’ai l’impression qu’elle n’a jamais été aussi adaptée.

Une page peut sembler bien faite (aucun problème technique, au contraire, et un contenu très complet) et pourtant Google ne semble pas (plus ?) en vouloir.

Il y a pas mal de raisons possibles, et vous les connaissez. Les fameux conseils génériques que vous lisez depuis longtemps. La page a trop de pub, est trop lente, n’a pas assez de mots (ou trop), des problèmes d’UX, etc. Ce sont d’excellents conseils, mais comment vous faites pour les étudier tous sur toutes vos pages et faire un bilan ?

C’est là que l’indice zombie vous fait gagner un temps de dingue !

Que vous ayez des centaines, des milliers ou des dizaines de milliers de pages, l’outil vous montre quelles pages posent problème. Vous ne passez pas des heures à les chercher.

On va commencer par le cas évident du site A qui n’a pas encore assez bossé et pour lequel j’ai envie de dire « Vous ne pouvez pas vous plaindre » :

Indices Zombies élevés
Trop de pages à indices Zombies élevés = le site performe mal et chute souvent aux Core Updates

Voici la vue d’ensemble des indices zombies du site B qui vient de chuter, malgré je vous le rappelle des pages en apparence bonnes :

Indices Zombies trop élevés
Indices Zombies trop élevés malgré faible QualityRisk : le croisement des 2 indicateurs est précieux pour repérer les pages à problèmes

Ne me dites pas « oui mais c’est normal qu’il ait chuté, y’a que des pages zombies ». Non !

  • d’abord parce qu’une page zombie ce n’est pas une page sans trafic, l’indice est basé sur de nombreux critères.
  • ensuite parce que l’indice zombie est calculé à partir des performances des 12 derniers mois. Si l’histogramme est mauvais juste après un Core Update, c’est qu’il était déjà mauvais avant !

Et voilà la tête de l’histogramme Zombies du site C dont le trafic organique vient de monter en flèche :

Bons indices zombies
Quasiment plus aucune page avec indice zombie élevé : ce site a fait une très grosse remontée avec les Core Updates de juin/juillet

Petite parenthèse : la personne qui gère le SEO de ce site C nous avait contactés Fabien et moi en janvier 2021, car le trafic avait chuté de 40% en 1 mois, après le Core Update de décembre 2020. On a donc appliqué exactement la méthode décrite ici. En lui montrant uniquement des pages à fort indice zombie, elle a d’abord été étonnée car il s’agissait de pages censées être au top de l’optimisation (référencement). Mais elle a trouvé assez vite pourquoi ces pages-là décevaient les internautes, et pas d’autres pages (pourtant avec parfois des sous-optimisations). Pour résumer, je dirais que les pages n’honoraient pas la promesse faite à l’internaute (dans la balise title et ailleurs dans la page). Il y avait une sorte de décalage avec l’intention de recherche. Avant ça passait, mais plus maintenant avec l’algo de Google… Et sans l’indice Zombies, elle n’arrivait pas à trouver quelles pages posaient problème.

Que faire avec les données fournies par RM Tech ?

Alors que faire concrètement avec le rapport d’audit ?

  1. Ouvrez l’annexe disponible dans la conclusion avec votre tableur et activez un filtre automatique. Dans Excel c’est dans « Données > Filtre » et dans Google Sheets c’est dans « Données > Créer un filtre ».
  2. Filtrez pour ne conserver que les pages dont l’indice zombies est supérieur à 40
  3. Ajoutez aussi un filtre pour ne conserver que les pages dont l’indice QualityRisk est faible (par exemple inférieur à 20)
  4. Analysez les pages qui sont listées. Triez éventuellement par URL pour repérer des tendances par types de pages.

Pour finir…

Depuis 2018, chaque Core Update Google a mis en lumière la relation entre QualityRisk/Zombie et l’impact SEO.

Donc pour nous et pour cette update, il n’y a rien de réellement nouveau, sauf 1 point : c’est la première fois que nous voyons une chute aussi forte des pages ayant un Zombie élevé mais pourtant un QualityRisk faible.

Voulez-vous voir ce que ça donne ? Demandez ici votre pré-audit

Tout comme Fabien, je suis confiant dans la puissance de nos 2 algorithmes (QualityRisk et Zombies).

C’est pour ça qu’on vous propose de vérifier par vous-même sur votre propre site ce que ça donne pour vous.

Et si vous ne connaissez pas encore notre outil, on vous propose de le tester gratuitement.

Cet article vous a-t-il plu ?

Note : 4.1 (8 votes)
Cliquez pour voter !

Laisser un commentaire

Remarques :

  • Si vous souhaitez poser une question ou détailler un problème technique, il ne faut pas utiliser le formulaire ci-dessous qui est réservé aux avis. Posez votre question directement dans le forum Gmail de WebRankInfo. L'inscription est gratuite et immédiate.

  • En postant un avis, vous acceptez les CGU du site WebRankInfo. Si votre avis ne respecte pas ces règles, il pourra être refusé. Si vous indiquez votre adresse email, vous serez informé dès que votre avis aura été validé (ou refusé...) ; votre adresse ne sera pas utilisée pour vous envoyer des mailings et ne sera pas revendue ou cédée à des tiers.

4 commentaires

julien

Ca serait bien de pouvoir plugger search console et matomo pour ceux qui n’ont plus analytics.
Sinon je suis d’accord avec votre analyse sur les core updates

Répondre
Olivier Duffez

En effet Julien. Je suppose que tu as remplacé Analytics par Matomo à cause du RGPD

Répondre
Iron Star

Excellent article qui synthétise bien ce qu’on observe, notamment au travers des nouveaux insights de la search console : si on déçoit le lecteur, Google s’en aperçoit et en tient compte !
Pour compléter, depuis début juin, je constate que la durée moyenne de lecture des sites dont nous nous occupons augmente alors que le trafic baisse. La qualité au détriment de la quantité, enfin !?

Répondre
Olivier Duffez

La durée moyenne de visite n’est pas un KPI assez fiable je trouve, sauf si c’est un site avec un grand nombre de pages vues par visite (genre Le Bon Coin)

Répondre