🧟‍♂️️ Vérifiez vos pages zombies SEO sur votre site !!! 🧟‍♀️️

Elles plombent votre référencement et ne vous rapportent rien...

Je le détaille dans mon tuto Pages Zombies

Profitez des updates Google !
Portrait Olivier Duffez

Olivier Duffez

Créateur de WebRankInfo,
consultant en référencement

SEO : comment anticiper les updates Google (et en profiter) ?

Google modifie très souvent son algorithme, parfois avec des impacts violents sur votre trafic. Voici la méthode que j’utilise pour mes clients permettant d’anticiper au mieux ces updates. Explications en vidéo…

Aimeriez-vous être plus serein et ne plus angoisser quand une mise à jour de l’algo de Google est annoncée ?

Ou bien une méthode pour corriger et améliorer votre site pour retrouver un meilleur trafic SEO, suite à une mise à jour Google néfaste pour votre site ou celui de votre client ?

Alors suivez mon webinar ! En 25 minutes de vidéo, vous découvrirez :

  • mes explications sur ces mises à jour Google
  • la méthode à suivre
  • 3 exemples concrets

Cette méthode est basée sur mon outil RM Tech d’audit SEO, disponible sur ma plateforme My Ranking Metrics. Selon les cas, elle doit être complétée par d’autres analyses (backlinks, pertinence des contenus, UX, etc.).

N’hésitez pas à poser vos questions ou exprimer votre avis dans les commentaires ici ou sur YouTube : profitez des updates de Google (SEO)

Les mises à jour de Google

Google modifie son algo en permanence !

  • En 2017, Google a fait tester 31584 modifications d’algo par ses évaluateurs (Search Quality Raters)
  • 2453 modifications de son algo de recherche ont été ensuite mises en production
  • Soit ~7 modifs par jour !

Parfois l’impact est énorme pour la visibilité des sites dans les résultats naturels :

  • Certains montent d’un coup
  • D’autres s’écroulent aussi brutalement
  • Certains ne constatent aucun changement
  • Rarement, Google officialise, mais jamais en donnant d’informations exploitables

Voici un exemple de chute violente :

Chute violente de trafic SEO

Un exemple de chute très violente :

Chute très violente de trafic organic

Un exemple de hausse brutale :

Hausse brutale de trafic organique

Un exemple de hausses régulières :

Hausses régulières de trafic référencement naturel

Alors, comment anticiper et gagner à chaque fois ?

Méthode pour ne plus craindre les updates d’algo de Google

Satisfaire l’internaute qui arrive des SERP

En résumé, assurez-vous que 100% des pages remplissent leur objectif : satisfaire l’internaute.

OK, mais comment on le vérifie ? La mesure du taux de rebond (seul) est insuffisante. Même si vous ne pouvez pas le mesurer, voici le pire scénario pour votre site (et son SEO futur), en tout cas s’il est fréquent :

  • un internaute arrive sur votre site depuis Google
  • il consulte 1 ou plusieurs pages mais reste peu de temps
  • puis revient en arrière jusqu’aux SERP de Google (« pogosticking« )
  • le client de Google n’est pas satisfait par votre site !  Et ça, ce n’est pas bon pour vous…

Comment anticiper et gagner à chaque fois ?

4 phases du SEO se répètent :

  • stratégie de contenus (et création/amélioration des contenus)
  • fondamentaux du SEO
  • pages toutes de qualité et performantes
  • développement de la marque et de la notoriété
4 phases du SEO

4 phases du SEO qui se répètent

Selon moi, à part si vous avez abusé de backlinks contraires aux consignes de Google, 2 phases sont potentiellement sensibles et donc à surveiller pour anticiper les updates Google. Il s’agit des 2 en rouge.

Alors que faut-il faire ?

  • D’abord, tous les fondamentaux du référencement doivent être remplis. Ne vous plaignez pas si tous les indicateurs ne sont pas au vert
  • Ensuite, vérifiez que toutes vos pages sont de qualité et performantes (en SEO)

Valider tous les fondamentaux du référencement

Quels sont ces fondamentaux du SEO ? En voici un extrait :

  • Site très rapide (pour le crawl et pour l’internaute)
  • Site mobile compatible desktop (ou l’inverse )
  • Sauf rare exception, ne pas faire crawler des pages pour rien (non indexables)
  • Aucun lien interne en erreur (ou redirigé)
  • Sitemap(s) exhaustif(s) déclarés à Google
  • Maillage interne travaillé : pas de pages trop profondes, liens contextualisés (pas planqués) utilisant des ancres variées
  • Balises title, meta description, H1-H2…H6 parfaitement adaptées à chaque page
  • Liens sortants externes OK (non cassés)
  • Données structurées (schema.org)
  • Et bien entendu un contenu de grande qualité dans chaque page indexable, avec
    • du texte inédit
    • en bonne quantité
    • incluant les bonnes expressions stratégiques
    • dans la zone principale de la page
    • ainsi qu’une UX parfaite

Comment faire pour suivre tout ça ?

  • Regardez régulièrement votre compte Google Search Console
  • Automatisez cette analyse (mensuelle ?) avec un outil d’audit

Par exemple, le graphique « radar » affiché pour chaque audit RM Tech donne une synthèse facile à comprendre et à évaluer d’un coup d’oeil (les contours de l’octogone doivent être le plus possible vers l’extérieur du radar, à 100% de performances) :

Radar RM Tech

Ce graphique montre une synthèse des principaux critères on-site du référencement

RM Tech permet aussi de surveiller la taille du contenu dans la zone principale de chaque page (sans se faire avoir par les menus, entête, pied-de-page et autres barres latérales) :

Surveillance contenu zone principale

RM Tech vous aide à surveiller si vos pages ont assez de contenu dans leur zone principale

OK, admettons que votre site remplit tous ces critères. Est-ce suffisant pour ne plus avoir peur des updates de Google ? Pas sûr… Vous devez vérifier que toutes les pages que vous donnez à faire indexer à Google sont de qualité et performantes.

Voyons comment faire.

Objectif : 100% de pages de qualité actives

Rappelez-vous d’un conseil fourni par Google (qu’on n’avait pas toujours envie d’écouter ou de suivre à l’époque)  :

Si certaines parties d’un site sont des contenus de faible qualité, alors cela peut dégrader le positionnement de l’ensemble du site. En conséquence, le positionnement de votre contenu de haute qualité pourrait progresser si vous supprimez les pages de faible qualité, ou si vous regroupez ou améliorez le contenu de certaines pages superficielles pour en faire des pages plus utiles, ou si vous migrez vos pages de mauvaise qualité vers un autre nom de domaine.

Source : blog officiel de Google.

A retenir :

  • Google évalue un site en fonction de l’ensemble des pages qu’on lui laisse indexer.
  • C’est en place depuis Panda (2011)
  • Ce critère semble + important aujourd’hui
  • vos pages de faible qualité plombent votre site !

Comment évaluer la qualité ?

  • Faites d’abord une analyse automatisée pour gagner du temps
  • Complétez par une analyse humaine
  • Couplez un crawler et des données externes reflétant la performance et l’attrait des utilisateurs

Comment évaluer la qualité intrinsèque ? Basez-vous sur des métriques liées aux fondamentaux du SEO :

  • contenu inédit dans la zone principale
  • rapidité, profondeur, compatibilité mobile
  • optimisation des balises HTML classiques du SEO
  • etc.

De mon côté, je me base sur QualityRisk (RM Tech), un indicateur qui regroupe plein d’éléments pour évaluer si une page risque de décevoir l’internaute (et d’être repérée par l’algo de Google).

Comment exploiter les données externes ? Récupérez pour chaque page des métriques de performances :

  • nb de sessions générées en référencement naturel
  • nb d’impressions et de clics selon Search Console
  • nb de pages vues par session pour les visites ayant commencé par la page, via le support « organic » (tuto vidéo ici)
  • etc.

Sur quelle plage de temps faut-il étudier si les pages sont actives ? Ma réponse est claire : toutes ces données doivent être récupérées sur une période de 1 an !

  • 30 jours c’est trop peu, surtout en cas de saisonnalité
  • 365 jours, ça donne une chance à chaque page de « faire ses preuves »
  • Attention à l’échantillonnage (Analytics, Search Console)

Examinez ensuite toutes vos pages inactives sur 1 an, ou très peu actives (moins de 1 session générée/jour). Ensuite :

  • Voyez comment améliorer toutes ces pages
  • Mettez à jour les contenus
  • Fusionnez certaines pages au contenu similaire
  • Supprimez ce qui n’apporte plus aucune valeur ajoutée

Pour prendre ces décisions, il vous faut des données exhaustives pour chaque page :

  • le fichier annexe dans la conclusion de RM Tech fournit toutes les d
  • onnées nécessaires à votre analyse
  • l’indice QualityRisk est incontournable pour repérer les problèmes intrinsèques de qualité et prioriser vos actions
  • Les données Analytics et Search Console indiquent la performance effective sur 1 an
  • A vous d’ajouter des colonnes et de calculer vos propres indicateurs !

Rappel : QualityRisk est fortement corrélé au succès SEO (source : Etude RM Tech de ~5000 sites et 1,2 milliard de visites SEO)

Etude Analytics QualityRisk 2018

Sur 42 millions de pages étudiées et 1,2 milliard de visites SEO, les pages avec QualityRisk nul génèrent 12 fois + de visites que celle avec QualityRisk>20

Voici à quoi ressemble un fichier annexe conclusion RM Tech (il a en fait + de 40 colonnes de données) :

annexe conclusion RM Tech

L’annexe en conclusion d’un rapport RM Tech regroupe plus de 40 données sur chaque page indexable, à commencer par l’indice QualityRisk

Conclusion de la méthode

Oui, c’est (souvent) possible d’anticiper les changements d’algo de Google. A condition de respecter impérativement ces conseils :

  • S’assurer que tous les fondamentaux SEO sont en place
  • Coupler avec Analytics +Search Console sur 1 an
  • Avoir un tableau listant toutes les métriques pour toutes les pages afin de pouvoir prendre les bonnes décisions
Je ne suis pas le seul consultant SEO à utiliser cette méthode ! Lisez le retour d’expérience de Miss SEO Girl sur RM Tech.

Alors, pouvait-on anticiper ? 3 exemples concrets…

Exemple 1 : chute violente prévisible

  • Grosse chute avec l’update du 1er août 2018
  • Un audit avait été fait 45 jours avant
  • Rien n’avait rien fait pour corriger
  • On pouvait pourtant prévoir cette chute…

Trop peu de contenu :

exemple 1 manque contenu

L’écrasante majorité des pages de ce site manquent de contenu dans la zone principale

D’autres problèmes sont identifiés par RM Tech :

exemple 1 qualityrisk

QualityRisk montre immédiatement le niveau de risque de ce site avec l’algo Google

En couplant l’analyse avec Analytics, on constate sans surprise que presque toutes les pages du site ne servent à rien en référencement, puisqu’elles ne réussissent pas à générer de visites :

exemple 1 pages actives

Pratiquement toutes les pages du site sont inactives, même sur 1 an

Exemple 2 : remontée prévisible

  • Plusieurs audits ont été faits fin 2017 et début 2018
  • Belle remontée avec l’update du 1er août 2018
  • Fondamentaux en partie corrigés
  • Enrichissement du contenu des pages stratégiques
  • Suppression de 400 pages sur 660 (soit 60%)

En février 2018, son audit montrait bien trop de pages de faible qualité. Grâce au travail effectué et à la suppression des pages irrécupérables, l’histogramme de QualityRisk est bien meilleur en juillet 2018 :

exemple 2 QualityRisk

Avant / après le travail d’amélioration de la qualité des pages

La hausse du trafic organique Google (update 1er août) n’a pas tardé après la suppression des pages inactives sans intérêt :

exemple 2 Search Console

On voit bien sur ce schéma la chute des pages indexées et la remontée du trafic Google (clics Search Console)

Exemple 3 : hausses régulières prévisibles

  • Depuis des années ce site applique la méthode des 4 phases du SEO
  • Jamais une erreur technique ne reste en place plus de quelques jours
  • Du contenu est ajouté de temps en temps
  • Des mises à jour sont effectuées
  • Quelques suppressions de pages périmées

Voici son score RM Tech fin juillet 2018 :

exemple 3 Score RM Tech

Bon score RM Tech (avec encore une progression possible)

On constate que ce site a une très bonne répartition de pages actives sur 1 an (faites comme lui !) :

exemple 3 Pages actives

Excellente répartition des pages actives sur 1 an

Au final, ce site d’environ 400 pages a généré 142 000 sessions par le SEO en août 2018, en constante augmentation depuis des années :

exemple 3 trafic organique

Ce client RM Tech profite de pratiquement toutes les mises à jour d’algo de Google

A vous de tester votre site !

Lancez un audit sur le site de votre choix sur la plateforme My Ranking Metrics

Commencez par un audit gratuit pour voir ce que RM Tech trouve…

Cet article vous a-t-il plu ?

Note : 4.5 (10 votes)
Cliquez pour voter !

Laisser un commentaire

Remarques :

  • Si vous souhaitez poser une question ou détailler un problème technique, il ne faut pas utiliser le formulaire ci-dessous qui est réservé aux avis. Posez votre question directement dans le forum Gmail de WebRankInfo. L'inscription est gratuite et immédiate.

  • En postant un avis, vous acceptez les CGU du site WebRankInfo. Si votre avis ne respecte pas ces règles, il pourra être refusé. Si vous indiquez votre adresse email, vous serez informé dès que votre avis aura été validé (ou refusé...) ; votre adresse ne sera pas utilisée pour vous envoyer des mailings et ne sera pas revendue ou cédée à des tiers.

4 commentaires

SEO Limoges

Merci a l’équipe de Webrankinfo pour toutes ces informations qui m’ont beaucoup aidée pour mon site web

Répondre
Thom

Excellente introspection.

Ca prend parfois du temps pour tout faire correctement mais si tous les facteurs sont au vert ça fini toujours par payer à un moment ou à un autre.

Répondre
Jeanne

Ne manque-t-il pas une notion de fraîcheur de contenu dans tous ces indicateurs ?

Le principe de conditions nécessaires mais pas suffisantes.

Répondre
Olivier Duffez

La nécessité de mettre à jour des contenus dépend des types de sites, mais en effet c’est important. C’est un point à voir dans l’amélioration des pages inactives ou trop faiblement actives.

Répondre