Portrait Olivier Duffez

Olivier Duffez

Créateur de WebRankInfo,
consultant en référencement

La méthode Pages zombies SEO avec RM Tech

Avez-vous des pages zombies sur votre site ? Avec une performance SEO nulle ou très mauvaise, un contenu et un intérêt très faibles, elles plombent votre référencement. RM Tech les détecte, les classe et vous aide à savoir quoi en faire.

Ce dossier extrêmement complet vous détaille toute ma méthode "Pages Zombies SEO, rendue publique fin 2018. Depuis, de nombreux SEO l'utilisent, ce qui me rend très fier !

Sachez que toute cette innovation (18 mois de R&D) est intégrée dans RM Tech, l'outil d'audit SEO de ma plateforme My Ranking Metrics. C'est le seul outil qui fournit l'indice page zombie pour chaque URL indexable de votre site. Un gain de temps énorme, ainsi que l'assurance pour vous que cette analyse soit faite sérieusement...

Sommaire :

  1. Définition
  2. Comment les trouver
  3. Que faire
  4. Exemples de succès
  5. Exemples de pages

Qu'est-ce qu'une page zombie ?

Définition

Une page zombie est une page qui non seulement cumule énormément de problèmes (et risque de décevoir l'internaute) mais aussi qui n'a pas de succès (mauvaise visibilité dans Google, mauvaise pertinence selon Google, pas ou très peu de trafic organique généré sur 1 an, ...).

Une page zombie n'est pas simplement une page qui ne génère pas de trafic SEO !

Est-ce gênant pour le référencement d'avoir des pages zombies sur son site ?

Oui !

D'abord, si vous avez trop de pages zombies, cela signifie que vous avez trop de pages de mauvaise qualité (et qu'en plus les internautes ET l'algo de Google ne les apprécient pas). Rappelez-vous que Google juge la qualité globale de votre site : il tient compte de toutes les pages que vous lui demandez d'indexer. On retrouve cette affirmation dans le blog officiel de Google, dans l’article donnant des conseils sur Panda dont voici ma traduction :

Si certaines parties d’un site sont des contenus de faible qualité, alors cela peut dégrader le positionnement de l’ensemble du site. En conséquence, le positionnement de votre contenu de haute qualité pourrait progresser si vous supprimez les pages de faible qualité, ou si vous regroupez ou améliorez le contenu de certaines pages superficielles pour en faire des pages plus utiles, ou si vous migrez vos pages de mauvaise qualité vers un autre nom de domaine.

Vous devez donc être "fier" de 100% des pages que vous décidez de faire indexer.

Quel impact si on se débarrasse des contenus de mauvaise qualité ?

En mars 2020, lors d'une séance vidéo de questions-réponses, un internaute a demandé si c'était utile (et sous combien de temps voit-on les effets) de supprimer des contenus de mauvaise qualité (par exemple 1 tiers du site). Voici sa réponse :

C'est généralement une bonne idée de le faire. Cela peut aider pour le crawl puisque Google peut se concentrer sur les pages indexées (vitesse et fréquence). L'autre aspect concerne l'amélioration de la qualité générale du site.
On peut généralement constater un changement avec le crawl avant la qualité. Par exemple, vous pouvez constater des changements de qualité sur le long terme, surtout dans le cas d'un site de grande taille (NDLR : plusieurs millions d'URL dans le cas présent). Il peut s'écouler un certain temps avant que Google ne remarque un changement significatif (NDLR : John donne comme ordre de grandeur 3, 6 ou 9 mois).
Il n'y a jamais eu de cas où j'ai vu un site supprimer correctement une grande quantité de "déchets" et ensuite voir un effet négatif. Si vous supprimez le contenu ancien et de moindre qualité, alors Google peut se concentrer sur le contenu plus récent et de meilleure qualité. C'est assurément une bonne chose à faire !

John Mueller (Google), mars 2020, Youtube
Attention : supprimer les pages de mauvaise qualité, c'est le dernier recours. Je vous conseille de suivre ma méthode (voir ci-après) pour conserver ces pages en améliorant leur qualité. Ce qui compte, c'est surtout de bien les repérer sans se tromper.

Je résume : si vous avez trop de pages zombies 🧟‍♂️ 🧟‍♀️, comme dans l'imaginaire fantastique, elles vont attaquer les bonnes pages 😱

Partagez l'info à vos contacts Twitter !Click to Tweet

Je plaisante mais uniquement sur la façon de le décrire, car c'est bien la réalité de ce qui se passe avec l'algo de Google.

Ensuite, il y a une autre raison bien plus simple et évidente, sans supposition sur l'algo de Google.

Toutes ces pages ne vous apportent rien (pas ou très très peu de visites, pas de conversions) et dégradent l'image de marque de votre site (et même de l'entreprise associée). A chaque fois que vous allez améliorer une ou des pages zombies, elles vont se mettre à générer du trafic et des conversions, et améliorer votre image de marque. N'est-ce pas le but ?

Pourquoi faut-il traiter les pages zombies ?

Je viens de vous donner la raison principale : le but est d'améliorer la qualité globale de votre site. Mais en fait si on creuse un peu, on se rend compte que le traitement des pages zombies a au moins 3 avantages :

  • vous améliorez la satisfaction des internautes : les contenus qu'ils découvrent sur votre site (via le référencement naturel) sont de qualité, puisque vous avez fait le ménage. L'expérience utilisateur est bonne, le risque que l'utilisateur quitte le site (pour revenir sur les SERP) est faible. Et donc, vous améliorez le taux de transformation, les conversions augmentent !
  • vous améliorez le Quality Score que Google calcule (sans doute) pour l'ensemble de votre site. Les métriques liées à l'utilisateur sont bonnes (exploitées par exemple par l'algo Rank Brain) et donc votre positionnement progresse.
  • vous optimisez votre budget de crawl : si votre site est très gros, l'analyse des pages zombies vous fait découvrir plein d'URL de la masse noire, qui n'auraient pas dû être indexées. Ou bien vous allez supprimer des pages totalement dépassées. Bref, ça fera + de ressources de crawl Google pour vos bonnes pages.

La suppression des pages zombies c'est du 100% bio !

Traiter les pages zombies sur votre site, c'est aussi important qu'élaguer de vos arbres ou supprimer les mauvaises herbes !

  • comme l'élagage optimise la forme de l'arbre, l'analyse des pages zombies améliore l'architecture et l'arborescence du site. L'élagage aide l'arbre à résister au vent et à grandir avec des branches aux bons endroits, tout en réduisant le risque lié aux mauvaises branches et en améliorant l'esthétique.
  • l'élagage maintient l'arbre en bonne santé : les branches entremêlées ou mal orientées sont coupées ou réajustées, les branches mortes sont supprimées, le système racinaire est plus efficace, la sève va dynamiser les branches restantes, l'arbre aura une croissance vigoureuse
élagage d'arbre, content pruning, pages zombies
En anglais, élagage se dit pruning. D'ailleurs, le "content pruning" est une méthode proche des pages zombies

Google indexe-t-il les pages zombies ?

Certaines sont indexées mais très peu performantes, mais pour d'autres l'algo de Google décide de ne pas les indexer. Autant dire qu'elles ne vont pas vous rapporter grand chose ! Et qu'il faut vraiment régler le problème.

Le pire, ce sont les pages que vous souhaitez que Google indexe (d'ailleurs elles sont dans votre sitemap en plus des liens internes) et que Google décide de ne même pas crawler.

John Mueller (de Google) a expliqué que pour ce dernier cas "Il se peut que le contenu de votre site ne soit pas considéré comme absolument essentiel pour nos résultats de recherche."

Voici comment vous pouvez savoir si ça concerne votre site :

  • allez dans Google Search Console (nouvelle interface)
  • cliquez sur Index > couverture
  • si vous avez un sitemap exhaustif (je le conseille), au lieu de laisser "Toutes les pages connues" qui est par défaut, cliquez sur "Toutes les pages envoyées" pour filtrer sur uniquement les URL que vous souhaitez vraiment faire indexer :
    Toutes les pages connues (couverture de l'index dans Search Console)
  • cliquez sur l'onglet "Exclues" puis cliquez sur "Erreur" pour désélectionner le cas des pages en erreur
  • regardez si dans les lignes du tableau vous voyez 1 ou 2 des cas suivants :
    • "Explorée, actuellement non indexée" : Google a bien crawlé votre page mais décidé qu'elle ne méritait pas d'être indexée
    • "Découverte, actuellement non indexée" : Google a bien crawlé votre page mais décidé qu'elle ne méritait pas d'être indexée

Voici un exemple de site qui a énormément de pages concernées (et pourtant il s'agit de pages que le propriétaire du site souhaite faire indexer) :

Pages non indexées selon Search Console
Si ce rapport de Search Console vous liste des pages non indexées et pourtant crawlées ou découvertes, faites une analyse des pages Zombies avec RM Tech...

Si vous avez des pages avec ce type de problème, elles rentrent dans la catégorie des pages zombies... Il y a 2 cas de figure :

  • des URL qui n'auraient pas dû exister : j'appelle ça de la masse noire, c'est un problème technique et un crawler comme RM Tech vous aide à corriger ça
  • des URL qui cumulent trop de problème : c'est typiquement des pages zombies et l'audit RM Tech vous aide à les traiter

Je continue avec les conseils de John Mueller (de Google) déjà évoqués précédemment. Voici sa marche à suivre :

  1. "d'abord, vérifiez s'il n'y a pas de problèmes techniques"
  2. "ensuite, vérifiez que tout est OK dans le maillage interne". "Prenez un outil de crawl et voyez quelles URL il arrive à trouver."
  3. "enfin, si ce crawl a fonctionné (et permis de trouver ces pages), concentrez-vous fortement sur la qualité de ces pages."

Voici une autre citation que je trouve très intéressante :

Peut-être qu'il est judicieux de se dire "bon, si je réduisais le nombre de pages de moitié". Ou peut-être même réduire le nombre de pages dont je dispose à 10% du nombre actuel. En faisant cela, vous pouvez rendre les pages que vous gardez beaucoup plus fortes. Vous pouvez généralement améliorer un peu la qualité du contenu en ayant un contenu plus complet sur ces pages.

Comment trouver les pages zombies ?

Réponse rapide : RM Tech vous les liste, avec un indice pour les trier !

Une page zombie, ce n'est pas une page sans trafic ou qui manque de contenu... L'indice pages zombie calculé par RM Tech tient compte de nombreux critères afin d'éviter de cataloguer comme affreuse une page qui en réalité est très utile au site (même si d'un point de vue référencement elle semble a priori mauvaise).

Une prise en compte de très nombreux facteurs

Attention à ceux qui font une analyse bien trop superficielle ! Non, une page zombie n'est pas forcément :

  • une page qui ne génère pas ou très peu de trafic
  • une page au contenu éditorial très faible

Si vous vous basez uniquement sur ça, alors vous prenez d'énormes risques car vous allez supprimer des pages qui en réalité sont très utiles pour votre site...

Pour repérer les pages zombies, RM Tech se base sur de nombreux critères, dont voici un extrait :

  • le manque de contenu dans la zone principale de la page (ne vous fiez pas aux calculs qui incluent toute la page, avec le menu et le footer), en tenant compte de l'objectif de la page (on différencie une page d'accueil d'un article de blog, un site ecommerce d'un site média, etc.)
  • les sous-optimisations évidentes (titre très mal fait, balises Hn, etc.)
  • l'intérêt de l'internaute pour cette page (plusieurs métriques), et plus largement l'UX
  • les performances SEO sur 1 an. Toute analyse sur une période plus courte est insuffisante selon mon expérience

Encore une fois, cette liste n'est qu'un extrait des facteurs pris en compte par notre algorithme...

Une fois qu'on a pu récupérer toutes ces données, il faut calculer une métrique sous la forme d'un indice.

L'indice page zombie de RM Tech

My Ranking Metrics

Au final vous n'avez rien à faire, tout est automatiquement intégré dans RM Tech, mon outil d'audit SEO sur ma plateforme My Ranking Metrics.

Ne ratez pas mon offre en cours : obtenez un pré-audit de votre site avec l'analyse des pages zombies. Gratuit, jusqu'à 100.000 URL crawlées ! Voir conditions sur le site.

Je me suis basé sur mon expérience en référencement, en particulier le repérage des pages de mauvaise qualité (cf. mon calcul d'indice QualityRisk) et des pages trop faiblement actives.

J'ai pu faire d'énormes tests grâce à ma plateforme (vive le big data) et à des échanges avec d'autres experts.

Au final, chaque page indexable se voit attribuer un indice zombie entre 0 et 100

  • un indice 0 signifie que la page n'a aucun problème
  • un indice de 100 signifie que la page est au niveau maximal des problèmes

Cet indice est fourni dans l'annexe située dans la conclusion, juste à côté de l'indice QualityRisk :

Indice zombie RM Tech
L'annexe en conclusion de RM Tech fournit tout, notamment l'indice zombie de chaque page (ici les URL ont été anonymisées)

Pour vous rendre compte très simplement de la présence de pages zombies sur le site que vous analysez et de l'importance du problème, le rapport affiche un histogramme de ce genre :

Histogramme indice zombie
Cet histogramme de RM Tech montre la répartition des pages selon leur indice zombie

Cet histogramme montre si vous avez beaucoup de pages à fort indice zombie. C'est en quelque sorte une version plus élaborée de l'histogramme QualityRisk (qui ne tient pas compte des données de Search Console).

Envie de voir à quoi ça ressemble ? Exemple de rapport d'audit avec Pages Zombies
⚠️ Le calcul de l'indice zombie d'une page ne peut se faire que pour un audit couplé à Google Search Console sur 1 an, car nous exploitons de nombreuses données. Il n'est donc pas présent dans les audits gratuits (qui ne sont pas reliés à Search Console). En outre, il faut qu'il y ait assez de données exploitables (volume de pages, volume de trafic, etc.).

Repérer les pages zombies et les trier selon un indice c'est bien, mais il reste à gérer ces pages et décider quoi en faire...

Avant ça, je préfère rappeler un point important : disposer de l'indice zombie de chaque page est extrêmement utile pour faciliter la vie, gagner du temps et de l'efficacité, mais ça ne remplace certainement pas l'analyse humaine. Profitez du temps dégagé par ce calcul d'indice zombie (automatique) pour réfléchir à ce qu'il faut prendre comme décision.

Comment traiter les pages zombies ?

Le but de la méthode est non seulement de vous aider à repérer les pages à fort indice zombie, mais aussi à comprendre la cause de cette contre-performance. Ainsi, vous allez améliorer vos pages et rendre efficaces des pages qui actuellement sont des boulets...

Plus l'indice zombie d'une page est élevé, plus il est probable qu'elle soit "irrécupérable".

Plus votre site a de pages à fort indice zombie, plus c'est risqué et inefficace :

  • "risqué" car pour juger votre site, Google se base sur l'ensemble des pages que vous demandez de faire indexer. Laisser se faire indexer des pages “zombies” peut pénaliser vos bonnes pages
  • "inefficace" car ces pages génèrent aucune ou très peu de visites et sont pas ou très peu consultées par vos visiteurs

Il est recommandé d'effectuer une analyse humaine suivant la méthode ci-dessous. Attention :

Le but de l'analyse des pages zombies 👽 est d'essayer de sauver 🚑 le maximum de pages et de supprimer ou désindexer seulement en dernier recoursClick to Tweet

Je précise aussi que ne rien faire des pages zombies et espérer un miracle 🙏 n'est pas du tout la bonne solution...

Pour chaque page zombie identifiée, tentez les solutions dans cet ordre (passez à une solution seulement si la précédente n'est pas applicable).

1 🔎 Traitez les cas particuliers

La page est-elle récente ? Si elle est indexée depuis quelques mois à peine, c'est peut-être normal qu'elle n'ait pas encore eu un grand succès, surtout quand on compare avec les autres pages étudiées sur 1 an.

La page est-elle sur un sujet qui n'intéresse plus ? S'il s'agit d'une actualité, vérifiez que la date de publication de votre article est bien visible. Une analyse humaine s'impose ici pour savoir s'il faut conserver la page. Parfois une mise à jour est possible (sans modifier l'URL). A vous de décider si vous souhaitez conserver vos "archives".

La page concerne-t-elle une niche très petite ? Si très peu de monde s'intéresse au sujet abordé, même sur 1 an, mais que le contenu est excellent et les (rares) conversions sont très rentables, alors vous pouvez décider de la conserver.

Certaines pages sont des exceptions sur le site, que vous pouvez ignorer ici : mentions légales, CGU/CGV, pages de contact mais également des URL de pagination (si celle-ci est gérée correctement) ou d'autres URL spéciales. RM Tech les ignore automatiquement 😎

2 📝 Améliorez la page

Il s'agit essentiellement d'améliorer le contenu, mais parfois aussi des aspects techniques (vitesse, profondeur et maillage…). Quelques pistes (je les ai toutes pratiquées avec succès...) :

  • complétez les informations et/ou mettez-les à jour
  • vérifiez si vous ciblez les bons mots-clés
  • assurez-vous que la richesse sémantique du texte est supérieure à celle de vos concurrents dans Google
  • améliorez l'UX
  • ajoutez des liens vers d'autres pages internes
  • ajoutez-lui des liens entrants internes (en variant les textes de ces liens)
  • précisez vos sources, avec des liens sortants externes (hyper important pour un site Your Money Your Life)
  • mettez en avant l'auteur
  • illustrez par des images (bien compressées) ou des vidéos
  • faites-en la promotion sur les réseaux sociaux ou dans vos mailings
  • (re)vérifiez l'orthographe et la grammaire, assurez-vous que vos textes sont faciles à lire
  • ajoutez des données structurées (référentiel schema.org)

3 📎 Regroupez des pages

Si plusieurs pages ont un contenu trop faible traitant d'un même sujet, regroupez-les. Choisissez la meilleure de ce groupe (cluster), fusionnez les contenus et reformatez le résultat final. N'oubliez pas de supprimer les autres pages du cluster et de faire des redirections 301 vers l'URL qui les regroupera.

Parfois, aucune URL existante n'est adaptée pour les regrouper : vous pouvez en créer une toute nouvelle et rediriger toutes les autres vers elle.

En aucun cas il ne faut faire des redirections massives vers une même URL, surtout n'ayant pas de contenu équivalent aux pages supprimées (l'erreur classique étant de rediriger en masse vers l'accueil).

4 ⛔️ Désindexez la page

Si vous pensez que le contenu peut malgré tout intéresser des internautes ou générer des revenus, désindexez la page mais laissez-la en ligne. Si besoin j'ai un tutoriel pour désindexer des pages.

Sauf cas particulier, cela signifie que vous ne touchez pas au maillage interne : les liens vers la page restent en place.

A vous d'évaluer si, une fois la page désindexée, il faut aussi la bloquer au crawl (fichier robots.txt).

5 🗑 Supprimez (et désindexez) la page

Il s'agit ici d'une page irrécupérable ou d'une URL qui n'aurait jamais dû être indexée ("masse noire"). La page doit donc être supprimée (et désindexée).

  • Si l'URL bénéfice de bons backlinks externes, faites une redirection 301 vers la meilleure page ayant un contenu sémantiquement proche. Vous pouvez trouver les backlinks dans Search Console (ou dans des outils SEO spécialisés).
  • Sinon, votre serveur doit renvoyer un code 410. Si vous ne pouvez pas faire la 410, renvoyez un 404. Ca ne change pas grand chose mais c'est pour éviter de polluer votre rapport d'erreurs 404 dans Search Console notamment.

Vérifiez que plus aucun lien interne ne pointe vers elle.

A votre tour de tester ! Lancez RM Tech

FAQ

Voici les questions les plus souvent posées à propos de ma méthode Pages Zombies SEO.

Quelle différence entre une page zombie et une page au contenu trop faible ?

L'indice page zombie ne se base pas seulement sur la quantité de contenu, car parfois un article avec peu de contenu éditorial rencontre un gros succès, de l'engagement auprès des internautes et même des revenus ou transactions/conversions.

C'est pourquoi l'analyse des pages zombies inclut de nombreuses autres métriques. Tout est combiné, à vous de prendre la décision finale, mais le gros du travail est fait : vos pages sont triées.

L'analyse des pages zombies est-elle réservée aux gros sites ?

Même si c'est particulièrement utile et efficace sur les gros sites, cette méthode est applicable à tous les sites. Même un petit site de quelques pages ou dizaines de pages doit faire en sorte que la qualité moyenne des contenus soit excellente. C'est important aussi bien pour l'internaute (bonne UX pour celui qui découvre votre site en venant de Google) que pour l'algo de Google.

A quelle fréquence faut-il examiner les pages zombies ?

Régulièrement ! Bien entendu, si vous publiez souvent de nouveaux contenus, c'est encore plus stratégique. Mais pour tous les sites, il faut s'assurer que les contenus sont toujours à jour. Il y a aussi des intérêts (des internautes) qui évoluent, des nouveautés qu'il faudrait aborder, sans compter l'impact technique de plugins ou de votre CMS qui demande des vérifications régulières.

La suppression des pages zombies est-elle risquée ?

L'analyse des pages zombies permet d'obtenir un indice (de 0 à 100) pour prioriser les actions et vous aider à prendre des décisions. Le but est d'améliorer toutes les pages qui peuvent l'être et de supprimer celles qui sont vraiment irrécupérables. En suivant cette méthode, vous n'avez pas de risques de faire d'erreur. Si vous supprimez les pages inactives sans réfléchir, oui c'est risqué.

Quelle différence entre Pages Zombies et Content Pruning en SEO ?

Maintenant que je vous ai expliqué la méthode que j'utilise, ça peut vous faire penser à d'autres techniques dont on parle depuis quelques années. En fait, pour être précis, on en parle surtout depuis l'arrivée de Google Panda, l'algo qui chercher à évaluer la qualité des sites.

La technique la plus connue est le Content Pruning (appelée aussi Content Cruft ou parfois Site Detox). Comme je l'ai dit au début, "pruning" signifie "élagage".

Qu'est-ce que le Content Pruning en SEO ?

En référencement, le content pruning consiste à identifier des pages de mauvaise qualité indexées sur son site, et à la désindexer, dans le but d'améliorer globalement la qualité du site.

C'est donc la même idée que mes "pages zombies", mais dans la plupart des articles qui expliquent comment faire du Content Pruning :

  • on recommande surtout de supprimer et désindexer, alors que moi je conseille avant tout de comprendre pourquoi une page ne fonctionne pas bien (en SEO) et en dernier recours de la supprimer/désindexer
  • on n'utilise bien souvent que trop peu de métriques. Par exemple, certains suppriment les pages sous prétexte qu'elles ne sont pas actives. RM Tech se base sur bien d'autres informations pour calculer l'indice zombie.
  • le travail est à faire à la main ou en manipulant plein d'outils et de données. Avec RM Tech, tout ce travail est fait pour vous ! Vous pouvez vous concentrer sur les analyses à forte valeur ajoutée.

Sites ayant progressé en gérant les pages zombies avec RM Tech

J'ai trouvé sur Internet plusieurs exemples de retours d'expérience positifs suite à un gros nettoyage de pages de type zombies. Je n'ai pas la liste, consultez par exemple Ahrefs (en 2016), Beetle SEO et Raphaël Doucet. Si vous l'avez aussi travaillé, contactez-moi pour en parler !

J'aimerais aussi citer Brian Dean (du site Backlinko) qui a également utilisé l'expression "zombie pages". Ce SEO reconnu aux USA recommande le repérage et la suppression de ces pages. C'est même l'étape n°1 de son guide !

Ainsi que Mary Bowling (SEO bien connue depuis 2003) qui conseillait dès 2015 de "détruire les pages zombie qui rampent sur votre site".

Mais j'ai aussi personnellement travaillé sur le sujet, surtout depuis 2016 environ, pour mes clients mais aussi pour WebRankInfo.

Voici donc des exemples très encourageants...

Client 1 : forte remontée du trafic SEO, durable

Cet exemple concerne un client que j'accompagne depuis pas mal d'années. Son trafic organique est en croissance régulière, grâce à des contenus de grande qualité et une bonne notoriété. En juillet 2017, le trafic SEO Google se met néanmoins à baisser... On laisse filer juillet et août (assez creux) et en septembre on se met au travail.

A l'époque, je n'avais pas encore accès à l'indice zombie dans RM Tech, mais je calculais quelque chose dans le même genre. C'était compliqué à mettre au point et pénible à faire à chaque fois. C'est pourquoi depuis je l'ai fait rajouter dans RM Tech :-)

Je récupérais les données de crawl et les combinais dans Excel avec d'autres informations :

  • date de publication ou dernière mise à jour de l'article
  • nb de fois où la page a été consultée, quelle que soit la source de trafic
  • succès via les réseaux sociaux
  • performances de la page en termes de ranking/mots-clés (via Search Console)
  • etc.

Presque toutes les mauvaises pages identifiées sont améliorées ; quelques unes sont regroupées et d'autres totalement supprimées.

Rien d'autre n'a été fait pendant cette période. Résultat :

pages zombies SEO hausse
Bel exemple de montée du trafic SEO après nettoyage de pages zombies

2 mois après, le trafic organique Google a fortement progressé, et ce fut le début d'une belle progression. 1 an après (octobre 2018), le trafic SEO du site était en hausse de +19% par rapport au plus haut de 2017 (avant la baisse) et de +66% par rapport au plus bas.

Client 2 : remontée à chaque "core update"

Pour cet autre client, le trafic n'était pas terrible début 2018 (et les mois précédents). En février je m'attaque au repérage des pages trop faiblement actives et j'étudie les causes. Cela m'a permis de trouver de nouvelles métriques à utiliser pour mon futur algo "zombies", désormais inclus dans RM Tech.

En avril 2018 Google effectue une mise à jour importante ("core update") et le trafic monte d'un coup. A l'été 2018, on a finalisé le travail sur les autres pages trop faibles, et à chaque mise à jour le trafic monte :

Nettoyage des pages zombies, forte hausse SEO
Autre exemple de progression nette du trafic organique suite à un nettoyage du site (améliorations de pages, regroupements, désindexations)

Client 3 : meilleur référencement

Pour celui-ci, aucune page n'a été supprimée du site, par contre suite à l'analyse des pages zombie un travail important a été effectué :

  • les pages ayant un intérêt à titre d'archives mais aucun pour le SEO ont été mises en noindex
  • les autres ont été mises à jour, complétées et parfois regroupées quand c'était possible
Meilleur référencement après gestion des pages zombie
Le trafic référencement naturel en forte augmentation après gros travail des pages zombies

Update du 19/03/2019 : ce client m'a contacté suite à la mise à jour de Google du 12 mars (Core Update). Il m'a avoué n'avoir pas fait grand chose depuis décembre 2018 : il faut dire qu'il avait terminé de revoir tous ses contenus en septembre.

Résultat : il a encore progressé en mars !!!

Pages Zombies et Core Update
Le trafic SEO de ce client a continué d'augmenter avec la mise à jour Google de mars 2019, après son travail fin 2018 sur ses pages zombies

Client 4 : gros succès de la méthode

Pour ce client, j'ai suivi scrupuleusement la méthode décrite ci-dessus. Résultat : client (très) content, la courbe Search Console parle d'elle-même :

Méthode Pages Zombies SEO
Gros succès avec la méthode Pages Zombies SEO

Avec RM Tech : +30% sur 1 an, site 100k PV/jour

Le 14 janvier 2020, Google annonce son Core Update de Janvier 2020. Je demande alors sur Twitter ce que ça donne et voici une réponse :

exemple succès pages zombies
Exemple de succès avec la méthode pages zombies SEO (janvier 2020, source Twitter)

Trafic doublé en 1 an avec cette méthode (80k VU/mois)

J'ai publié le retour d'expérience du propriétaire du site Vivalatina qui a témoigné du succès de la méthode Pages Zombies qu'il a utilisée en 2019. Il a amélioré son site pour ne plus avoir de pages avec indice zombie > 50 et pour augmenter le nb de pages avec indice zombie = 0. Voici l'évolution :

Répartition des indices zombies
La répartition des indices zombies a bien changé d'un audit à l'autre, avec disparition des pages à très fort indice zombie, et augmentation des pages sans aucun problème

Résultat : forte croissance du trafic organique !

Hausse du trafic organique avec My Ranking Metrics
Hausse du trafic organique du site Vivalatina avec des audits RM Tech sur la plateforme My Ranking Metrics

Et pourtant il a encore de la marge : il doit s'attaquer aux pages à indice > 40.

Exemples de pages zombies trouvées par RM Tech

Je termine ce dossier avec une sélection d'exemples de pages de type "zombie" trouvées par RM Tech.

Pour simplifier les choses (j'ai plein de sites à montrer avec leur contexte), je l'ai fait en vidéo. Quelques précisions :

  • j'ai essayé de choisir des exemples variés, mais j'aurais pu en fournir 3x plus !
  • j'ai également inclus des exemples de bonnes pages (prises sur les mêmes sites) pour vous aider à comparer. C'est impressionnant de voir que cette analyse aide à identifier les types de contenus qui cartonnent de façon durable.
  • j'ai obtenu l'accord de chacun de ces sites pour tourner cette vidéo

Voici le genre de choses que l'algo zombie de RM Tech repère généralement très bien, même au milieu de dizaines de milliers de pages :

  • les fiches produits périmées ou sans stock
  • les fiches produits sans aucune description (ou 1 ligne)
  • les catégories vides ou presque
  • les pages correctes mais au titre complètement raté (balise title)
  • le spam inefficace et risqué (notamment les pages satellite)
  • les articles dont le contenu est totalement dépassé
  • les pages en erreur qui répondent pourtant en code 200
  • la saturation du (faible) contenu par la pub
  • les problèmes majeurs d'UX (expérience utilisateur)
  • la masse noire technique (URL indexables qui n'auraient même pas dû être crawlables)
  • sur un site multilingue : les pages non traduites, ou trop partiellement
  • ...

Arrivez-vous à repérer tout ça très rapidement pour chaque site étudié (sans utiliser RM Tech) ?

Retrouvez cette vidéo sur YouTube : Pages zombies SEO trouvées par RM Tech

Envie de savoir à quoi ressemble un audit RM Tech incluant l'analyse des pages zombies ?

Questions réponses

Comment identifier les pages zombies ?

🧟‍ Il faut lancer RM Tech, l'outil d'audit SEO de la plateforme My Ranking Metrics. Dans le rapport d'audit, vous aurez l'indice zombie de chaque page, ainsi que des graphiques et des explications rédigées.

Comment savoir si des pages zombies pénalisent mon site ?

🧟‍♀️ Demandez à profiter d'un pré-audit gratuit pour voir un bilan des pages zombies sur votre site, avec les données réelles. Vous saurez si cette méthode vous serait utile ou pas.

Une page zombie est-elle une page sans trafic ?

🚧 Non ! Contrairement à ce que certains pensent, ce n'est pas ça. C'est même très risqué de se limiter au trafic uniquement. Notre algo exploite plein d'autres critères pour juger la qualité d'une page ainsi que ses performances.

Faut-il supprimer ou désindexer les pages zombies ?

🗑️ Non ! Ce n'est qu'en dernier recours, pour les pages irrécupérables. Le principe de la méthode est d'identifier rapidement les problèmes pour comprendre les causes. En corrigeant l'origine du problème, vous améliorez fortement la situation et votre référencement.

Cet article vous a-t-il plu ?

Note : 4.5 (28 votes)
Cliquez pour voter !

30 commentaires

Steven

Bonjour les pages catégories qui sert uniquement de listing pour les articles, faut'il les considérer comme des pages zombie?

Olivier Duffez

Non, d'ailleurs c'est très rare de pouvoir dire "tel type de page est forcément une page zombie". Les pages catégories doivent être enrichies afin de ne pas être seulement un listing : éditorial soigné avec texte inédit, mise en avant de certains produits ou marques phares, image d'illustration, etc.

Lionel Belarbi

Merci pour cet article, il me redonne la motivation dont j'avais besoin. Cela faisait un an que je n'avais pas lu un article SEO avec autant de passion.

J'ai d'ailleurs remarqué qu'en améliorant le SEO d'anciens articles avec du contenu intéressant, que Google commençait à prendre au sérieux mon journal. 80 pages à refaire, heureusement que j'ai RankMath pour m'aider ^^

GUILLOU Olivier

Très bon article ! :) merci beaucoup pour le concept de page zombie. J'ai cependant un problème pour détecter les pages indexées. J'ai suivi votre méthode de détection (en scrappant avec la commande site: les urls d'un site).

Voici mon pb :

Soit un site xxx.com, Je liste les urls indexées via la commande site : site:x.com (je trouve urla, urlb, urlc, urld, urle)

Hors j'ai une urlf dont je veux savoir pourquoi elle n'est pas dans l'index.

1 - Je regarde sur la searchconsole : et j'ai le résultat : Couverture : Indexée !

2 - je teste une recherche xxx.com mot-clef (contenu dans la page de l'urlf) et le résultat avec l'urlf apparaît dans les serp

Dois-je en conclure que cette page urlf est indexée puisqu'elle retournée dans la serp ? Je penche pour oui. Mais je fait peut-être erreur.

Olivier Duffez

Je te conseille de te baser sur des métriques liées aux performances, comme le nb de visites que la page a générées via le référencement naturel, le nb de consultations de la page, le nombre d'impressions dans search console. D'après mon expérience c'est plus fiable et surtout ça permet d'éviter la classification "page indexée / non indexée".
Au passage, avant j'avais uniquement distingué les pages actives des non actives, et j'ai vu que c'était insuffisant, d'où la méthode des pages zombies.
As-tu testé RM Tech ?

Nico

Hello Olivier
Super interressant et enrichissant ton article sur les pages zombies. Mais il y a quand même un shmill...
« Explorée, actuellement non indexée » : Google a bien crawlé votre page mais décidé qu’elle ne méritait pas d’être indexée
« Découverte, actuellement non indexée » : Google a bien crawlé votre page mais décidé qu’elle ne méritait pas d’être indexée
Ils se trouve que certaines des pages que Google annonce comme non indéxées le sont bien, qu'on les trouve dans la search console en faisant une inspection d'URL, ou même en recherchant dans Google..
Une chose est sur c'est qu'il n'aime pas la page, et on se rend bien compte qu'elle "souffre de mille maux" pas pas de 1000 mots.. ;-)
Nicolas

Olivier Duffez

En effet, parfois les indications de la search console ne sont/semblent pas cohérentes. En général, c'est dû à un décalage temporel : le rapport n'est pas à jour.

Laurent Dubilon

Bonjour
merci pour cet excellent article.

J'ai un site e-commerce, avec des produits d'occasion, donc des pages/produits en quantité 1. Lorsqu'ils sont vendus, ils restent en ligne comme "vendu".
Pensez-vous que ces pages produits "vendus" peuvent-etre considérées comme des pages "zombies" qui impactent négativement le SEO ? Devrait-on les supprimer ? simplement les mettre en "noindex" ? Merci pour vos lumières

Olivier Duffez

Je ne vois pas bien l'intérêt de conserver ces pages, elles risquent de décevoir les internautes qui les consultent. Au minimum il faudrait une meta robots noindex.

SMADJA

Bonjour,
je ne comprends pas la différence entre les notions de " pages zombies " et le Quality Risk de l'audit Rank Metrics ?
Pouvez vous m'éaclairer ?
Cdt
Alexis

Olivier Duffez

QualityRisk essaie d'évaluer les qualités intrinsèques d'une page sans avoir d'informations sur les performances effectives.
Zombie se base non seulement sur des éléments du type QualityRisk, mais aussi les performances effectives des pages. L'indice zombie est donc bien plus précis, il sait reconnaître qu'une page avec pourtant très peu de texte peut être très utile ou très efficace (et qu'il faut la conserver).

loopy117

Bonjour,
Est ce que vous avez une idée du temps qu'il faut pour que le site remonte après un traitement des pages zombies ?
Je vois sur les exemples entre deux mois...et attendre un core update : je pensais que les mises à jour de la qualité des sites ne dépendait pas des core update et étaient régulières ?
Merci.

Olivier Duffez

Je pense qu'il est impossible d'indiquer une durée, car :
- cela dépend de la situation de départ du site, de la volumétrie des problèmes
- cela dépend de l'ampleur des travaux d'amélioration de la qualité entrepris
- personne ne sait exactement en quoi consistent les core updates officialisés (ou pas) par Google

ndc

Bonjour, merci pour ce partage, j'ai une question par rapport au passage
"Voici le genre de choses que l’algo zombie de RM Tech repère généralement très bien [....] les articles dont le contenu est totalement dépassé"

Sur les sites d'actualités, faut il supprimer les anciennes actualités lorsque celles-ci ne génèrent plus aucun intérêt ?
Si oui, faut il supprimer uniquement les articles au qualityrisk élevé ou faut-il également désindexer les articles qui génèrent pas ou très peu de visites, même s'ils ont un qualityrisk de 0, qui sont de bonne qualité mais qui n'intéressent tout simplement plus personne ?

Merci beaucoup !

Olivier Duffez

Il n'y a pas de réponse universelle, c'est là qu'il faut que l'humain intervienne !
Quelques remarques cependant :
- mieux vaut se baser sur l'indice zombie que sur QualityRisk, c'est plus complet
- il faut tenir compte de la stratégie de l'entreprise (souhaitez-vous conserver tous les articles en ligne, quitte à les bloquer à Google ?), en ne tenant pas seulement compte du SEO mais aussi d'autres aspects qui comptent pour la réussite
- si vous pouvez indiquer le nom de domaine du site, créez une discussion dans le forum et demandez l'avis des autres membres

JFB

Excellent article. La valeur ajoutée de ton outil est bien le gain de temps dans l'analyse, je confirme.
J'ai un exemple de site e-commerce qui a un nombre important de pièces détachées et d'accessoires qui ont leurs propres URL. Il n'y a que peu de contenu sur ce type de page et elles ressortent beaucoup comme page zombie.

Y-a-t-il un risque à mettre beaucoup de ces pages en noindex ?

Olivier Duffez

Il y a un risque à désindexer des pages qui présentent un intérêt à rester indexées.
Il faut tout faire pour améliorer les pages zombies plutôt que de les désindexer ou supprimer.
Mais sinon, si l'analyse humaine confirme que ces pages n'ont aucun intérêt (pas seulement SEO) et sont irrécupérables, alors autant les désindexer toutes, ça devrait être profitable.

JFB

Ce sont des articles qui se vendent (pas via le SEO du coup) les pages ont donc un intérêt commercial.

Une piste serait d'intégrer ces accessoires directement dans la page du produit fini et de les rendre achetables directement depuis la page du produit fini.
Ce qui apporterait encore du "contenu" à la page produit qui pourrait se positionner aussi sur son accessoire ou sa pièce détachée : "écran pour xxxxx"

Alex Dupont

Excellent article! Merci pour toutes ces informations.
J'aimerais cependant savoir dans le cas où je supprime des pages qui n'auraient pas dû exister : je dois faire des redirections ou je peux les laisser en 404 ?

Olivier Duffez

S'il existe une URL (indexable) qui correspond très bien à la page qui n'aurait pas dû exister, autant faire la redirection 301.
Sinon une 404 (ou 410).

AlexandraP

Bonjour, après analyse de ma Search Console, j'ai environ une centaine de pages zombies, de type "explorée mais non-indexée" qui correspondent à tous les médias uploadés sur mon WordPress (documents PDF et images). Ce ne sont donc pas de réelles pages de contenu en soi. Quelle recommandation serait la votre pour rendre ces typologies de pages non indexables ? Merci par avance !

Olivier Duffez

S'agit-il vraiment d'URL de médias ou d'URL de pages HTML ne faisant qu'afficher des médias (attachments dans WordPress) ?
en tout cas ça n'est pas bien méchant j'imagine

Jeanviet

Super retour d'expérience, cela donne envie de faire un peu de nettoyage cet hiver. La corrélation entre le nombre de pages désindexées et le boost de trafic du tweet de Raphaël Doucet est éloquent. J'ai eu envie de regarder mon rapport search console d'urls exlcues à la lecture de ton article, ce qui est bizarre, c'est que dans les urls explorées actuellement non indexées, j'ai aussi des articles assez qualitatifs qui ressortent malgré tout sur Google. Peut-on se fier à 100 % à ce rapport ?

Olivier Duffez

Merci pour ton commentaire. C'est vrai que j'ai déjà trouvé des exemples de pages soit-disant non indexées qui le sont pourtant bien, mais c'est loin d'être la majorité. L'analyse RM Tech est fiable à 100% par contre, j'ai fait assez de tests pour le dire ;-)

Jice Lavocat

Hello Olivier,

Tu m'as toujours convaincu de cet aspect important dans le positionnement d'un site.
J'ai une question pratico pratique. Sur un blog de contenu, dans lequel une série d'articles ("Les chiffres de la semaine") a été créé au fil du temps, avec un ratio texte très faible et des visites quasi nulles ... il y en a quelques centaines : quel traitement préconises-tu ? Tu disais que les redirection en masse vers la home peuvent être toxiques... du coup tu suggérerais de mettre tout en 410 ?

Olivier Duffez

A priori code 410, sauf s'il y a des cas particuliers (par exemple pour une URL qui a reçu des bons backlinks, une 301 pourrait servir)

Olivier CLEMENCE

Bravo Olivier,
c'est un sujet dont nous avons déjà discuté et sur lequel tu te penches depuis un bon moment.

J'alerte également mes clients sur ce problème qui est très fréquent sur les sites e-commerce (mon coeur de cible).

Avoir un moyen de les repérer facilement et précisément avec RM Tech va simplifier le travail :)

Beau travail !

Olivier Duffez

Oui, il faut parfois se rendre compte qu'un travail de qualité sur moins de produits est plus efficace...

SEO Marseille

Un article qui va faire grand bruit dans le monde du SEO ! Très intéressant et à partager sans modération

Les commentaires sont fermés