🧟‍♂️️ Vérifiez vos pages zombies SEO sur votre site !!! 🧟‍♀️️

Elles plombent votre référencement et ne vous rapportent rien...

Je le détaille dans mon tuto Pages Zombies

Sauvetage SEO avec RM Tech
Portrait Olivier Duffez

Olivier Duffez

Créateur de WebRankInfo,
consultant en référencement

Comment il a sauvé son site qui avait perdu 90% de trafic SEO

En baisse continue depuis 1 an, son trafic SEO Google était presque à zéro après plusieurs mises à jour de l’algo. Découvrez comment il est remonté en effectuant un gros nettoyage du site et appliquez la même recette de sauvetage à vos sites…

Parfois, on est tombé si bas qu’on pense que tout est fichu. Quand ça concerne le trafic SEO d’un site ecommerce, c’est généralement dramatique…

C’est ce qui est arrivé à un client qui m’a contacté début 2018. Je vais vous raconter l’histoire car elle se finit bien, et que je me dis que ça peut en inspirer parmi vous ;-)

Trafic SEO en décroissance, absence de solutions

Jusqu’en 2017, il ne faisait pas trop d’efforts sur son site, même s’il savait que ses pages étaient loin d’atteindre les niveaux de qualité demandés par l’algo actuel de Google.

Les problèmes commencent avec des « updates Google » au printemps 2017, qui causent de fortes baisses successives de son trafic.

A l’été 2017, il met en place des corrections « cosmétiques » qui semblent plus ou moins réussir. Mais il sait bien qu’il ne fait que cacher la poussière sous le tapis…

La mise à jour juste avant Noël 2017 redonne un gros coup, le trafic s’écoule. Entre mai 2017 et janvier 2018, il a perdu 70% du trafic google/organic. La courbe ne donne pas grand espoir :

Baisse du trafic SEO

Avant d’utiliser My Ranking Metrics, son trafic SEO était en baisse régulière…

Les solutions qui ont sauvé son référencement

En février quand il me contacte, je lui explique qu’il y a effectivement du boulot mais que c’est encore possible de remonter.

Il lance son premier audit SEO sur ma plateforme My Ranking Metrics et découvre que mon outil RM Tech identifie énormément de problèmes, notamment de qualité.

Son 1er réflexe fut de me demander :

OK, je crois avoir compris : je vais supprimer toutes les pages de trop faible qualité. C’est ça ?

Surtout pas ! Car ça ne suffit pas à faire remonter : il faut aussi améliorer la qualité des pages restantes.

Il me suggère alors la chose suivante, assez lucide :

Je vais travailler en 1er les pages les pires en termes de qualité. Je suppose qu’elles plombent la qualité globale du site tel que peut l’estimer l’algo de Google.

Ce n’est pas faux, mais en fait ce n’est pas une bonne idée, car on risque de passer un temps dingue à bosser des pages qui de toutes façons sont trop loin de générer du trafic. Notre temps et nos ressources sont loin d’être infinies, il faut de la rentabilité…

Je lui montre que selon RM Tech, une grosse partie des pages du site sont non seulement repérées de très faible qualité mais surtout comme n’ayant pas généré la moindre visite depuis 1 an ! Il l’ignorait totalement, c’est le couplage de Google Analytics et Search Console avec l’analyse de la qualité intrinsèque des pages (« QualityRisk ») qui a pu le révéler.

C’est un point essentiel : ça évite de se poser des questions sur l’impact de la suppression de certaines pages.

Il se met au travail : 28% de ses pages sont totalement supprimées (la plupart n’auraient pas dû exister) et 37% sont retravaillées. Dans son rapport RM Tech, il avait la liste des URL à reprendre avec les recos, triées par un indice de rentabilité (très très apprécié du client).

Concrètement, voici une partie des actions effectuées :

  • correction de la plupart des problèmes techniques présents sur le site (liens internes en erreur 404 ou se faisant rediriger, éradication de la « masse noire », optimisations faciles concernant la vitesse du site)
  • renforcement du maillage interne : réduction de la profondeur par l’ajout de liens issus de pages de même thématique, augmentation de la variété des ancres de liens tout en restant vraiment naturelles
  • identification des contenus éditoriaux qui n’étaient plus à jour : mise à jour des plus intéressants, suppression d’une grande partie (code 410), redirection pour d’autres (code 301)
  • regroupement de contenus trop courts en pages correspondant à la même thématique
  • suppression de certains produits au catalogue, n’ayant de succès ni en SEO ni en ventes
  • amélioration légère de l’éditorial pour les problèmes mineurs (réécriture des balises titre et description, ajout de titres H2 et H3)
  • amélioration du design et de l’expérience utilisateur
  • quelques backlinks obtenus par la création de nouveaux contenus de haute qualité (et contacts de personnes potentiellement intéressées)

En février, la note de son 1er audit RM Tech était médiocre (en rouge…). Il voulait donc à tout prix que les fondamentaux du référencement soient tous bien respectés. 3 mois après, c’est presque atteint :

Score RM Tech (mai 2018)

En mai 2018, les performances SEO mesurées par l’audit RM Tech sont bonnes

Le temps de tout nettoyer et améliorer sur le site, puis que Google crawle tout, le trafic continuait de chuter. En avril, il en était arrivé à 90% de baisse par rapport à l’année d’avant… Le moins que l’on puisse dire, c’est que c’était « un peu tendu ».

Le 16 avril, Google met en ligne une grosse mise à jour concernant le coeur de son algo.

Voilà ce que ça donne dans Google Search Console (trafic référencement naturel Google) :

Hausse des clics Google

D’un seul coup, au moment d’une mise à jour importante de Google, le site retrouve un gros trafic SEO

Le trafic remonte en flèche, sans arrêter de monter depuis :

Sauvetage SEO

Après un audit RM Tech et de nombreuses améliorations sur le site, son trafic SEO remonte en flèche après avoir atteint 90% de baisse…

Le suivi de ses 372 principaux mots-clés dans Google montre la même chose, il dépasse tous ses concurrents :

Amélioration du positionnement Google

Le positionnement dans Google sur les mots-clés du client s’est fortement amélioré d’un seul coup

Morale de l’histoire : quand Google dit qu’il cherche à mettre en avant les sites qui présentent un contenu de qualité, ce n’est pas si faux que ça.

Par contre, comme l’explique très bien Glenn Gabe (expert SEO fin connaisseur des updates qualité de Google), si votre site se retrouve dans la zone grise, il risque de glisser vers le bas un peu plus à chaque mise à jour. La seule chose à faire est une grosse mise à plat, un repérage des pages de mauvaise qualité, de celles qui déçoivent trop l’internaute, afin de les améliorer (ou supprimer dans le pire des cas).

Mon expérience : il faut « frapper un grand coup », mais exactement là où il faut. Sinon ça ne fonctionne pas.

Vous aussi, faites remonter votre référencement !

Et vous ? N’attendez pas d’être dans cette zone grise de descente infernale, repérez ce qu’il faut faire sur votre site et faites remonter son trafic SEO !

Lancez votre audit RM Tech dès maintenant (en version gratuite).

Cet article vous a-t-il plu ?

Note : 4.0 (20 votes)
Cliquez pour voter !

Laisser un commentaire

Remarques :

  • Si vous souhaitez poser une question ou détailler un problème technique, il ne faut pas utiliser le formulaire ci-dessous qui est réservé aux avis. Posez votre question directement dans le forum Gmail de WebRankInfo. L'inscription est gratuite et immédiate.

  • En postant un avis, vous acceptez les CGU du site WebRankInfo. Si votre avis ne respecte pas ces règles, il pourra être refusé. Si vous indiquez votre adresse email, vous serez informé dès que votre avis aura été validé (ou refusé...) ; votre adresse ne sera pas utilisée pour vous envoyer des mailings et ne sera pas revendue ou cédée à des tiers.

17 commentaires

flm

Un meta noindex ne suffit-il pas ? Ou faut-il vraiment supprimer les pages ?

Répondre
Olivier Duffez

La meta noindex peut suffire pour du court terme : l’intérêt est de ne pas « jeter » une page et de se donner quelque temps pour améliorer sa qualité, afin de retirer le noindex une fois le bon niveau atteint. Mais il faut savoir que Google n’aime pas trop crawler des pages qui restent longtemps en noindex : au bout d’un moment (des mois ? je ne sais pas), la fréquence de crawl sur ces pages se réduit. Leur intérêt SEO est donc très faible, le jus issu de ces pages se trouvant a priori très faible.
Et puis à quoi bon conserver plein de pages pour l’internaute si on ne les juge pas de qualité suffisante ?

C’est clairement l’expérience qui aide à prendre la décision. ça dépend de pas mal de choses, par exemple de la taille du site, du nb de pages à retirer, de leurs problèmes de qualité, de la difficulté à les faire remonter (coût des ressources en tous genres), etc.
Mais savoir qu’elles n’ont (quasiment) rien généré comme trafic SEO aide beaucoup, tout comme savoir qu’elles n’ont généré aucune impression selon Search Console depuis 3 mois.

Répondre
Jordan

Je pense que j’ai le même souci sur un de mes sites qui trustait la 1ere page sur des milliers de KW.

Il est fort probable que le souci vienne de la mise en place d’un forum offert aux membres pour qu’ils puissent discuter.
J’ai tout laissé accessible « aux visiteurs et aux bots » pensant bien faire pour que GG avale toutes les pages (créées par milliers chaque mois) et me donne donc encore + de visibilité dans les SERP.

A la màj en mars de « Fred2 » le site à dégringolé quasiment sur tous les KW, ceux ou je suis ultra pertinent aussi, très souvent même le site ne ressortait plus du tout sur des tas de KW.

Il y a de grandes chances que le forum mis en place 2/3 mois plus tôt en soit la cause.
Je vais passer toutes les pages de topics en noindex (pour le coup les pages ne sont pas inutiles, je ne peux pas supprimer les sujets postés des membres…).
Je me demande si je dois faire autre chose en parallèle pour que GG les désindexe rapidement aussi de son côté (les pages existantes déjà indexées que je vais passer en no-index).
Une idée globale sur mon souci et sur ma dernière question ?

Merci !

Répondre
Mikael Buxton

Bonjour,

J’ai du mal à comprendre en quoi la suppression/modification de pages de mauvaise qualité peut affecter le SEO d’un site entier. Google traitant page par page, que cela pénalise les pages concernées, ok, mais pourquoi les « mauvaises pages » pénaliseraient les bonnes pages et le site dans sa globalité ?

Répondre
Olivier Duffez

On sait pourtant depuis 2011 (algo Panda, le 1er à évaluer la qualité d’un site) que tout ne fonctionne pas uniquement page par page chez Google.
Voici une traduction d’une déclaration officielle de Google à ce propos (source) :

Un autre conseil spécifique que nous avons indiqué est qu’avoir du contenu de qualité médiocre sur certaines parties d’un site web peut avoir un impact sur les classements de l’ensemble du site, et qu’en conséquence, supprimer ainsi les pages de qualité médiocre, fusionner ou améliorer le contenu de pages peu remplies, ou déplacer des pages de qualité médiocre vers un domaine différent pourrait éventuellement aider le positionnement de votre contenu de qualité supérieure.

Je l’ai pratiqué à plusieurs reprises depuis 2011 et suis loin d’être le seul SEO à l’avoir remarqué.

Voir aussi les conseils de Matt Cutts qui vont dans le même sens.

Répondre
David

Bonjour,
Vous précisez dans l’article :
« Je lui montre que selon RM Tech, une grosse partie des pages du site […] n’ayant pas généré la moindre visite depuis 1 an ! »
et dans les commentaires :
« savoir qu’elles n’ont (quasiment) rien généré comme trafic SEO aide beaucoup, tout comme savoir qu’elles n’ont généré aucune impression selon Search Console depuis 3 mois. »

Doit-on en conclure qu’au delà de 3 mois sans impression, la page n’est pas (ou s’il est est récente ne sera jamais) jugée de qualité aux yeux de Google ?

Merci d’avance,

Répondre
Olivier Duffez

Une page qui ne génère aucune impression en 3 mois est soit pas indexée, soit tellement loin qu’elle n’a aucune chance de générer du trafic.
En général, j’utilise cette info pour confirmer qu’une page de très faible qualité doit être supprimée du site (ou désindexée).
Mais si par contre la page est censée être de qualité, alors le problème est ailleurs (backlinks ou autres aspects de l’ensemble du site).

Répondre
DM13

Juste un petit mot : My Ranking Metrics est un outil précieux permettant de prendre appui sur des repères clairs et éprouvés. Une excellente base de travail technique. Je suis un « simple » utilisateur heureux. My Ranking Metrics est vraiment une plateforme TRES sérieuse.

Répondre
Olivier Duffez

Merci pour ce témoignage, très sympa !

Répondre
Sitolog

Bonjour,

Analyse très intéressante, qui amène plein d’autres questions…

J’avais suivi ton cursus complet à Paris en 2010, quand je me suis mis à mon compte. Je n’y connaissais alors rien à rien au monde du web.
J’ai un site PrestaShop (www.sitolog.com) et je vends un petite dizaine de modules pour PrestaShop, et surtout une application de type client lourd (Merlin Backoffice, anciennement PrestaPricing).
Huit ans après, ma petite entreprise est toujours la, donc on peut dire que ce que tu as essayé de m’apprendre à du servir un peu… :-)

J’ai à deux reprises, en 2015 et au printemps 2017, vécu ce genre de baisse en pente douce mais régulière que tu décris, à la fois des ventes, et un peu moins marqué du trafic.
Les deux fois, j’ai relancé la machine, non pas en faisant du SEO, mais en modernisant mon site (nouveau thème, revue de l’ergonomie etc…) et en améliorant mon application phare.

Mon business est bon, régulier… je n’ai pas à me plaindre. Mais je n’ai jamais vu, pendant toutes ces années, sauf après chaque refonte du site, ou la sortie d’une nouvelle version majeure de mon d’appli, de vraie monté de traffic. C’est plutôt plat, prédictif… Jamais fait de x2 ou de truc du genre.

J’ai déjà fait faire des audits SEO de mon site, il n’y a pas vraiment eu de conseils pertinents ou de chose fondamentale à revoir.

Donc je fais juste le minimum syndical, de nouvelles pages d’information de temps en temps, j’anime un blog et un forum,…

En lisant cet article, je me dis, tient peut être, et si je faisais un peu de ménage sur les pages inactives, serait ce la solution qui donnerait un vrai coup de fouet…

N’ayant pas ton appli RMTech. Ou plus exactement je l’ai utilisé une fois pour mesurer la qualité SEO du site, en mode gratuit pendant x jours il y a deux ans en arrière. La note de qualité n’était pas bonne, mais je n’ai pas su exploiter le rapport car il portait sur des centaines de pages alors que je n’ai que 10 produits à vendre. J’ai juste continué comme je l’ai toujours fait, à me concentrer sur les « 30 » pages les plus importantes à mes yeux (catégories, produits phares, blog…)
Donc, j’ai déjà voulu voir aujourd’hui si j’avais beaucoup de pages inactives et j »ai simplement utilisé GAnalytics en suivant un vieux tuto de 2009 ( http://www.seoland.fr/identifier-pages-inactives-google-analytics/ ), qui montre d’ailleurs que le sujet n’est pas récent.

Ça m’en sort un sacré paquet. Mais il y a deux choses au moins que je pige pas :

La grande majorité des pages qu’ Analytics a noté comme étant visitées, mais sans avoir jamais reçue de visite dont la source serait « Organic », sont des pages que j’ai toujours mis en no index. Des pages de mon backoffice, des pages du tunnel de vente, des pages des comptes clients…. etc

Sont elles indexées ou juste « connues » de Google ?, ont elles un impact négatif…. Ou puis je simplement les ignorer ?

Secondo, les urls ainsi listées par Analytics contiennent de nombreux paramêtres d’URLs, du style ?id_client=… ou ?token=…. Il y en a des dizaines et des dizaines…
De ce fait, la même « page » est listée un très grand nombre de fois.

Ces paramètres d’URLs augmentent ils aux yeux de Google le nombre de pages inactives ?.
Et si oui, comment éviter ce gros bazar ?
Je me souviens que l’on peut indiquer quelque part à Google les paramètres d’url a ignorer dans son travail d’indexation, je l’avais fait il y a des années en arrière pour des choses comme ?page=… Faut il que je reprenne ce travail pour y ajouter tous les paramètres trouvés dans la pages que Google voit comme étant visitées ?

Crdlt
Franck

Répondre
Olivier Duffez

Le pb est que le tuto que tu indiques donnes une mauvaise méthode pour identifier les pages actives… Au lieu de se baser sur les « pages de destination », il se base sur les « pages les plus populaires », c’est-à-dire celles qui sont les plus consultées – mais pas forcément en tant que page de destination.
Il faut absolument que la méthode de récupération des pages actives (et du nb de visites générées) soit fiable et porte sur 1 an. Sinon, toutes les analyses qui suivent sont fausses…

Répondre
DM13

Olivier,

My Ranking Metrics m’indique des pages à contenu de taille insuffisante, or il s’agit en grande partie de reproduction d’article de presse dont je fus l’objet. Je ne vois pas trop comment régler ce souci…

J’ai une page de présentation (qui est OK pour My Ranking Metrics) et des liens vers les différents articles à partir de cette page. Si je place tous les articles sur la page de présentation, ce serait « too much » je pense… Regrouper des articles sur une même page ? L’on perd la diversité des titres de pages dans ce cas…

Que faire dans ce cas, sachant que toutes les pages sont actives ? Je penche personnellement sur le fait de laisser en l’état, mais je n’aime pas le scoring de 82% dans My Ranking Metrics ;)

Répondre
Olivier Duffez

Difficile de répondre sans connaitre l’ensemble, il faudrait que tu postes une discussion dans le forum.
Des « reproductions d’articles », ça fait pas du contenu dupliqué par hasard ?

Répondre
DM13

Non, pas de contenu dupliqué, car il s’agit d’articles de presse papier et non digitale.

Répondre
mich

Bonjour Olivier, après une refonte drastique ( chez moi -30% de mauvaises pages, réécriture de textes avec vrai contenu, score rmtech passé de 95 à 99,1% ) , FAUT IL ATTENDRE UN GROS UPDATE GOOGLE pour que le trafic remonte ? Pour le moment, je continue de baisser :( Si il faut attendre mars 2019, je suis fichu ! Merci

Répondre
Olivier Duffez

Oui, il est possible que le site ne remonte pas ou seulement un peu tant qu’un « gros update » n’arrive.
Comme je l’explique aussi dans ce dossier, RM Tech ne représente qu’une partie des analyses à faire : il faut aussi travailler backlinks, pertinence des contenus, UX, etc.

Répondre