Portrait Olivier Duffez

Olivier Duffez

Créateur de WebRankInfo,
consultant en référencement

Problèmes SEO les + fréquents trouvés sur les sites dont le référencement baisse

Ces derniers mois, Google a fait de nombreux changements dans son algorithme. J’ai étudié 43 sites ayant connu des baisses du référencement naturel à ce moment : voici les principales erreurs repérées, les plus courantes. Vérifiez si vous les faites !

Dans la 1ère partie, j’ai expliqué comment l’analyse des Pages Actives sur 1 an m’a permis de repérer les sites dont le SEO avait chuté ces derniers mois. Je ne dis pas que c’est la cause, mais qu’il faut suivre la méthode suivante :

  1. calculer le taux de pages actives sur 1 an
  2. si ce taux est trop faible (< 70%) il faut améliorer les pages ou au pire en supprimer (sans risque de perdre du trafic…)
  3. parmi les pages actives, celles qui génèrent très peu de visites par an doivent également être analysées

⚠️ Si vous n’avez pas encore lu la 1ère partie, faites-le immédiatement puis revenez ici.

J’ai aussi expliqué en vidéo qu’il faut éviter l’échantillonnage (dans la récupération des données de trafic).

Après avoir lu cet article, il vous restera la 3ème et dernière partie : conseils pour un SEO au top (applicables à tous les sites).

Dans cette 2ème partie, je vais vous « révéler » les problèmes les plus fréquemment observés parmi les dizaines de sites étudiés dont le référencement a chuté.

Pour chacun de ces sites :

  • je l’ai étudié, ayant eu accès également aux données Google Analytics (pour confirmer la baisse et exploiter les données en les couplant à mon audit)
  • c’est en appliquant la méthode dite des « Pages Actives sur 1 an » que j’ai pu identifier les principaux problèmes
  • j’ai observé qu’il était concerné par 1 ou plusieurs des problèmes listés ci-dessous
  • je ne peux pas garantir qu’il s’agit de la cause directe de sa baisse en référencement, mais j’affirme qu’il doit d’abord les corriger avant d’espérer remonter

En résumé, mon conseil est très simple :

Si votre site est concerné par au moins 1 des problèmes ci-dessous, corrigez-le(les) complètement dès que possible, car la prise en compte par Google n’est pas immédiate.

En réalité, tout ce qui est détaillé ici s’applique aussi aux sites dont le référencement se porte bien mais qui comportent certaines faiblesses.

Les problèmes suivants sont triés par occurrence décroissante. Cela signifie que j’indique en premier les problèmes les plus souvent rencontrés sur tous les sites que j’ai audités.

Principales erreurs SEO à éviter

Les principales erreurs SEO à éviter sur votre site selon Olivier Duffez (WebRankInfo)

#1 Manque de contenu dans la zone principale

C’est de loin le problème le plus fréquent dans les sites que j’ai pu étudier et dont le référencement naturel ne fait que chuter. Ça ne fait que 20 ans qu’on dit que le contenu est important, il faut sans doute attendre encore avant que tout le monde le comprenne :-)

OK Olivier, combien faut-il de mots par page ? 300 mots c’est bon ?

Voilà ce qu’on me demande régulièrement. Cette indication de 300 mots a si souvent été donnée qu’elle semble faire référence. Pourtant, il faut bien comprendre :

  • ce qui compte, c’est que le texte soit intéressant. Inutile de faire du remplissage juste pour faire plaisir à l’algo de Google ou d’un outil d’audit.
  • quand on parle de nombre de mots, c’est pour la partie principale de la page. Si la page est un article comme ici, c’est le nb de mots de l’article. Surtout pas de l’ensemble des mots présents dans la page, incluant le menu, la barre latérale, les zones complémentaires et le pied-de-page !
  • la quantité attendue dépend du contexte et par exemple du type de site ou de page. Pour un dossier comme celui que vous lisez, 1000 à 1500 mots me semble un bon objectif (celui-ci dépasse les 3500). Il faut adapter les exigences en fonction du contexte.

Dans mon outil d’audit, l’algo que j’ai fait développer tient compte de tout ça (à part la mesure de l’intérêt d’un texte, très subjectif). Pour valider que c’est un élément majeur du SEO, j’ai fait une étude sur 5000 sites et 1,2 milliard de visites générées par le référencement naturel. D’ailleurs, j’ai présenté cette étude au salon SEOCamp’us à Paris en mars 2018. Résultat : les pages qui ont suffisamment de contenu dans la partie principale génèrent 4,5 fois + de visites en SEO que celles qui en manquent :

Impact taille contenu sur SEO (étude mars 2018)

Cette étude a montré que la taille du contenu (dans la zone principale de la page) est fortement corrélée au trafic généré par les pages en référencement naturel. Source : My Ranking Metrics, étude mars 2018

Je vais prendre l’exemple d’un site dont le trafic SEO s’est écroulé dans les 10 derniers mois. Voici comment se répartissent ses pages :

Exemple manque de contenu

87% des pages indexables de ce site (dont le référencement s’effondre) ont un contenu trop court dans la zone principale

Il a donc seulement 13% des pages qui semblent avoir assez de contenu dans la zone principale.

Si on regarde quelles pages lui génèrent des visites SEO (analyse sur 1 an) :

Visites générées en SEO et taille de contenu

66% des visites sont générées par les pages qui ont assez de contenu (mais qui ne représentent que 13% du site….)

C’est clair non ?

📌 Action : faites une analyse de vos pages, en tenant compte des remarques ci-dessus, puis investissez dans la rédaction web de qualité (en commençant par les pages ayant le meilleur potentiel).

#2 Contenu qui n’est plus à jour et fausses promesses

Comme je l’ai dit à plusieurs reprises :

L’internaute qui arrive de Google (résultats naturels), Google nous l’a confié. A nous d’en prendre soin ! Car si on le déçoit, Google finira par s’en rendre compte.Click to Tweet

Et comme Google ne veut pas décevoir ses utilisateurs, son algo est programmé pour rétrograder les sites qui déçoivent trop les internautes.

J’ai rencontré dans mon panel un paquet de sites avec 2 erreurs que je regroupe :

  • des contenus dépassés, plus à jour 📆 : l’internaute s’en rend compte très vite et perd confiance dans le site. Le « Trust » fait partie des 3 piliers pour un référencement naturel solide: Expertise + Authority + Trust (expertise, autorité et confiance).
  • une fausse promesse 💔 : dans les SERP, l’internaute clique sur votre résultat car le titre (et/ou le descriptif) laissent entendre qu’il trouvera ce qu’il veut. Arrivé sur la page, la réalité est toute autre ! Le pire étant quand le but du site n’est pas de fournir l’information ou la solution que l’internaute voulait, mais de lui proposer d’acheter un produit ou un service, ou de lui demander de remplir un formulaire (lead). Faites attention à votre titre (balise title) : certes, il doit inciter au clic, mais doit correspondre au contenu de la page.

Dans un style proche, j’ai aussi rencontré les erreurs suivantes :

  • une agence immobilière qui laisse en ligne des annonces périmées depuis des années. Le but étant de montrer qu’en tout, elle a géré un grand nombre de transactions… Mais si dans 90% des cas l’internaute qui arrive de Google tombe sur une annonce périmée, que va-t-il faire ? Un retour en arrière dans les SERP, signal catastrophique pour le site…
  • un gros site ecommerce qui laisse en ligne beaucoup de produits sans bouton d’achat. Il ne s’agit pas d’articles hors stock, mais non disponibles à la vente…
  • un site à fort contenu éditorial avec des pages qui annoncent des événements à venir… mais passés depuis des années désormais. A supprimer !
  • un pied de page affichant fièrement une année de copyright 3 ans en retard
  • un lien mentions légales qui ne pointe nulle part (le fameux <a href="#">)
📌 A part tester tous ces cas de figure, comment les repérer ?

Pour ma part, je ne sais pas (encore) repérer automatiquement ces pages à partir de leurs caractéristiques. Par contre, en analysant le nombre de visites qu’elles génèrent en 1 an (attention à ne pas prendre une période plus courte), j’en repère un grand nombre…

#3 Qualité insuffisante sur la page

Quand Google a commencé à dire que son algo (Panda en 2011) savait évaluer la qualité, comme vous j’ai été dubitatif. Mais j’ai totalement changé d’avis depuis. D’abord parce que j’ai constaté que globalement il savait plutôt bien le faire et ensuite parce qu’à mon petit niveau j’ai pu aussi le faire. Concrètement, l’indicateur QualityRisk inclus dans mon outil évalue pour chaque page le risque que la page soit évaluée de mauvaise qualité (par l’algo Google ou par l’internaute).

On travaille à l’améliorer, mais cet indicateur est déjà très très efficace. Il exploite plusieurs métriques afin de faire ressortir d’un site les pages qui cumulent trop de problèmes déceptifs pour l’internaute.

Toujours avec mon étude sur un énorme panel de sites, il en ressort que :

Etude Analytics QualityRisk 2018

Sur 42 millions de pages étudiées et 1,2 milliard de visites SEO, les pages avec QualityRisk nul génèrent 12 fois + de visites que celle avec QualityRisk>20

Concrètement, si je prends un autre site étudié dont le positionnement Google s’est écroulé au moment d’une mise à jour qualité/cœur de l’algo :

chute update Google

Exemple de chute du trafic organique à un update qualité Google

Voici comment RM Tech évalue le QualityRisk des pages (il faut viser un QualityRisk nul ou au moins < 20) :

Trop de pages à fort QualityRisk

On voit que ce site a trop de pages à fort QualityRisk

Et voici combien chaque page de ce site réussit à générer de trafic par mois, en moyenne :

Visites générées par page, fonction de leur QualityRisk

C’est impressionnant sur ce site : seules les pages à très faible QualityRisk réussissent à générer des visites ‘organic’

En gros, seules les pages à très faible QualityRisk génèrent des visites, mais le problème est qu’elles sont peu nombreuses sur le site. Bref, selon moi et avec mon expérience, il est urgent de renforcer la qualité de ces pages à fort QualityRisk…

Parmi les sites de mon panel d’étude, j’ai pu trouver pas mal d’exemples de pages de trop faible qualité :

  • des catégories sans aucun produit (ou article ou annonce) : l’impact est catastrophique…
  • des catégories avec un seul produit (ou article ou annonce), sans aucun texte de présentation de la catégorie : c’est largement insuffisant
  • une fiche produit avec à peine 3 lignes de descriptif
  • des articles de blog formatés à 300 mots chacun, qui se révèlent souvent insipides
  • plein de pages tags (souvent plus nombreuses que les articles eux-mêmes), sans aucun contenu spécifique
  • des (grosses) pages dont 99% des mots sont cliquables
  • dans un forum, des discussions (anciennes) sans aucune réponse
  • dans un forum, les pages profil (ne présentant aucune information utile)
📌 Action : faites une analyse de la qualité intrinsèque de vos pages, puis améliorez ce que vous pouvez, en commençant par les pages ayant le meilleur potentiel.

#4 UX et/ou design catastrophique

C’est difficile de lister ce qu’il faut éviter à tout prix, car c’est souvent une accumulation de détails, comme :

  • le contenu principal n’est visible qu’en ayant fait défiler une partie de la page
  • plein de bandeaux et autres pop-up ou pop-in empêchent une bonne lecture de la page
  • la version mobile est inexistante ou très difficile à utiliser
  • le design est très ancien, totalement dépassé
  • le texte contient trop souvent du bourrage de mots-clés, ainsi que trop de mise en gras
  • le menu est soit beaucoup trop touffu (méga menu), soit basé sur des libellés qui ne signifient rien pour l’internaute, soit inutilisable (bug technique)

Ces problèmes se cumulent souvent avec ceux liés à la publicité ou parfois à la vitesse du site (dont je parle ci-dessous).

📌 Action : demandez au maximum de gens dans votre entourage d’aller sur votre site (avec différents appareils), de naviguer et de vous faire un compte-rendu. Suivez mes conseils pour que le visiteur apprécie la visite de votre site.

#5 Trop de pub envahissante

Monétiser son site par la publicité, OK 👍

Envahir les pages de publicités de toutes sortes, qui deviennent plus importantes que le contenu, non ! 👎

Vous le savez bien que l’excès de pub est nuisible, en tout cas en tant qu’internaute. Alors pourquoi en tant qu’éditeur de site vous l’oubliez ?

Ce qu’il faut éviter à mon avis, en tout cas l’accumulation :

  • pubs super bien intégrées dans le contenu afin que l’internaute ne fasse plus la différence (en gros, ne suivez pas l’exemple de Google avec ses AdWords…)
  • pop-up d’installation de l’appli mobile
  • pop-up d’abonnement à des notifications
  • pop-up d’abonnement à la newsletter
  • pub interstitielle
  • vidéos qui démarrent toutes seules (encore pire : avec le son activé)
  • pub flottante dans la page, gênant la navigation
  • liens affiliés très fréquents dans le contenu, pas toujours pertinents
  • sites dont 90% du contenu est de l’affiliation (avec liens sortants incluant du tracking)

Je complète avec une courte citation des consignes de Google à ses évaluateurs de qualité (source, § Distracting/Disruptive/Misleading Titles, Ads, and Supplementary Content) :

Les pages qui perturbent l’utilisation du contenu principal doivent avoir une note faible. Une seule annonce en popup avec un bouton de fermeture visible ne perturbe pas trop, mais ne favorise pas l’expérience utilisateur. Voici deux exemples de situations que nous considérons comme perturbatrices :
– Les annonces qui flottent activement sur le contenu principal lorsque vous faites défiler la page et qui sont difficiles à fermer. Cela peut être très difficile d’utiliser le contenu principal quand il est en permanence recouvert par des pubs difficiles à fermer.
– Une page interstitielle qui redirige l’utilisateur loin du contenu principal sans lui permettre d’y revenir

📌 Que faire ? Là aussi il faut demander à des tiers qui ne connaissent pas encore votre site de le tester et de vous donner leur avis. Prenez du recul et supprimez les publicités qui nuisent le plus à l’expérience utilisateur. Faites des tests A/B pour savoir lesquelles conserver. Indiquez « Publicité » autour de chaque emplacement. Visez le long terme…

#6 Pages bien trop profondes

Pour une fois, il s’agit d’un problème (a priori) facile à résoudre : des pages beaucoup trop profondes. Cela signifie que pour les atteindre en partant de la page d’accueil, il faut un grand nombre de clics sur des liens.

C’est pourtant archi connu : plus une pages est profonde, plus ses performances SEO s’écroulent.

Je l’ai vérifié dans mon étude sur 42 millions de pages et 1,2 milliard de visites :

Etude profondeur 2018

Plus la page est profonde dans le site, moins elle génère de visites (référencement naturel)

Je vais vous donner un exemple trouvé sur un site de mon panel d’étude.

D’abord, son trafic organique est en décroissance :

Baisse du trafic organique

La courbe Google Analytics le montre mal, mais le trafic SEO a fortement chuté

Son maillage interne est très mauvais et les pages bien trop profondes :

Pages trop profondes

50% des pages du site sont trop profondes, 30% nécessitent 10 clics pour les trouver, les pires étant à 229 clics…

Maintenant, j’analyse l’efficacité SEO des pages selon leur profondeur :

Nombre de visites selon la profondeur

La performance SEO des pages (mesurée en nombre moyen de visites générées par mois) est directement liée à la profondeur

Au final, quelles pages génèrent vraiment des visites en référencement naturel sur son site ?

Répartition des visites par profondeur

Les visites sont assurées par les pages peu profondes. Les nombreuses autres pages ne génèrent RIEN.

Conclusion : même si ce n’est pas un problème de qualité, ni forcément un gros problème pour l’expérience utilisateur, avoir autant de pages si profondes nuit aux performances SEO. Ce site pourrait faire remonter son trafic très facilement en travaillant ce levier.

📌 Que faire ? Si la cause est purement technique, corrigez-la (par exemple des pages qui n’auraient pas dû exister, ou du Javascript non vu par Google, ou trop peu d’éléments par page de listing). Sinon, améliorez votre maillage en ajoutant des liens intelligemment…

#7 Masse noire

Qu’est-ce que la « masse noire » en référencement ?

Ce terme désigne l’ensemble des URL crawlables et parfois indexables et qui n’auraient pas dû être crawlables ou indexables. Elles dégradent les performances SEO du site.

L’expression « masse noire » a été inventée en formation SEO par Fabien Facériès, cofondateur de Ranking Metrics ;-)

En gros, il s’agit des URL que Googlebot peut rencontrer sur votre site et qui n’auraient même pas dû être là, ou pas autorisées au crawl, ou pas indexables. Bref, ces URL perturbent le référencement, consomment du budget de crawl et dans le pire des cas peuvent modifier la perception de Google. En effet, si parmi ces pages la plupart sont de faible qualité, elles feront partie du périmètre d’analyse de Google et donc baisser la note moyenne du site.

Voici les cas les plus courants qui créent de la masse noire, trouvés sur les sites de mon panel :

  • tout ce qui est lié aux fonctions de tri dans des catégories : elles rajoutent souvent des paramètres du type orderby dans l’URL, qu’il vaut mieux bloquer au crawl (via le fichier robots.txt)
  • une mauvaise gestion du « trailing slash« , c’est-à-dire le signe / en fin d’URL. Soit vous l’avez, soit vous ne l’avez pas, mais pas les 2.
  • des pages ayant rarement d’intérêt (à être crawlées ou indexées) comme les archives par auteur, mais aussi bien souvent les tags
  • des URL dupliquées car l’article ou la fiche produit inclut la catégorie dans l’URL, et qu’il ou elle est présent dans plusieurs catégories
  • des URL encore à l’ancien format, avant la réécriture d’URL
  • des URL avec du tracking Google Analytics (alors qu’il ne faut pas en mettre dans les liens internes)
  • des URL de la recherche interne (avec une infinité de possibilités), alors que Google recommande de ne pas les faire indexer
  • des URL en minuscules et en majuscules
  • des variantes de produits avec 3 tonnes de valeurs possibles

Je parie que Google répond toujours « ça ne pose pas de problème, on gère ». En théorie oui, mais en pratique c’est autre chose… Avez-vous vraiment besoin de lui mettre des bâtons dans les roues ?

📌 Que faire ? Comparez la liste des URL situées dans votre sitemap exhaustif (j’espère que vous en avez un) à la liste des URL crawlées et indexables trouvées par un crawler SEO (RM Tech par exemple).

#8 Temps de téléchargement et de chargement énormes

Je distingue ici 2 types de mesures:

  • le temps de téléchargement est le temps mis par un crawler (Googlebot par exemple) pour récupérer une ressource. En général on se concentre sur les HTML, mais ça concerne tout ce qui est autorisé au crawl : images, CSS, Javascript, etc.
  • le temps de chargement est le temps qu’une page HTML s’affiche en entier.

Dans les 2 cas, votre site doit être ultra-rapide. C’est important pour le SEO, mais encore plus pour l’efficacité de votre site, c’est-à-dire sa capacité à remplir ses objectifs (vente en ligne, prise de contact, publicité, etc.).

  • si les pages mettent trop de temps à être téléchargées, Google réduit le nombre d’URL crawlées par jour/mois. C’est ce qu’on appelle le crawl budget. Si vos pages ne sont plus crawlées, ou rarement, les problèmes vont s’accumuler et vous aurez du mal à vous en sortir.
  • si les pages mettent trop de temps à être chargées, les internautes risquent tout simplement de quitter votre site. Déjà c’est pas terrible, mais si en plus ils reviennent en arrière dans Google, c’est très mauvais…

Google recommande que les traitements du serveur pour produire une page prennent moins de 200 ms (source).

Voici un exemple de site dont le temps de téléchargement dans Search Console est bien trop élevé (il faudrait être vers 200ms, 600ms au maximum) :

Temps de téléchargement trop important

Le temps de téléchargement moyen d’une ressource dans Search Console devrait être vers 200ms

Voici l’erreur peu commune que j’ai obtenue avec un des sites de mon panel d’étude (dont le SEO a chuté je le rappelle) 😱 :

Page vraiment trop lente

La page est tellement lente à se charger que l’outil a abandonné

Sur une autre page de ce même site, des notes très mauvaises 🐌 :

Page trop lente

Scores très mauvais de webperf

📌 Que faire ? D’abord diagnostiquer, puis appliquer les recommandations que vous donnent les outils :

  • pour le téléchargement, commencez par la courbe située dans Google Search Console : elle donne une tendance générale. Complétez par un crawl de votre site avec n’importe quel crawler qui mesure le temps de téléchargement. Si vous y avez accès et qu’ils sont bien configurés, étudiez aussi vos logs.
  • pour le chargement, faites des tests avec des pages différentes de votre site, sur des outils comme Dareboost ou GTMetrix Ces 2 outils font appel à d’autres comme Google PageSpeed Insights et YSlow, ce qui est pratique. Dareboost a l’avantage d’être en français.

#9 Trop de pages non indexables mais crawlables

C’est en quelque sorte une sorte de variante de la masse noire, qu’on pourrait qualifier de « masse noire contrôlée ». C’est-à-dire que le site génère plein d’URL non destinées à être référencées et que Google se « prend dans les pattes ». Vous lui proposez plein de liens internes vers des pages et à chaque fois qu’il les crawle, l’instruction noindex lui dit « désolé, t’es venu pour rien, faut pas indexer ».

Non, il ne va pas s’énerver, c’est un bot ! 🤖

Mais si ça prend des proportions énormes, le crawl de Google devient vraiment inefficace sur votre site. Petit à petit, il est possible que Google réduise son crawl sur ces pages en noindex.

Au final, à quoi ça sert de lui faire crawler tout ça ?

Parfois il s’agit de pages avec des listes de liens, par exemple des catégories filtrées ou triées, ou des tags, ou de la pagination. Faites donc des sous-catégories ou trouvez d’autres moyens de compléter votre taxonomie, ça sera largement plus efficace.

📌 Comment corriger ? D’abord, il faut le repérer : calculez le taux de pages indexables parmi vos pages crawlables. S’il est inférieur à 95%, je vous conseille de revoir votre façon de gérer votre site et votre crawl. Si besoin suivez mon webinaire gratuit crawl et indexation, ou bien suivez ce tuto.

J’ai rencontré d’autres erreurs dans les sites étudiés, mais de moins grande ampleur, ou sur trop peu de sites pour qu’ils soient mentionnés ici.

Et vous ? Questions et réactions

Avez-vous rencontré des problèmes en référencement naturel dans les 6 ou 12 derniers mois ?

Si oui, n’hésitez pas à en parler dans les commentaires.

Rappel : tous les problèmes listés ci-dessus ont pu être découverts facilement par l’analyse des pages pas du tout ou pas assez actives sur 1 an, effectuée automatiquement par mon outil RM Tech. Vous pouvez tester l’audit gratuit en ligne: vous aurez déjà plein d’infos, mais pas le couplage avec Analytics (réservé à la version payante).

Dans la suite de cet article, je vous explique ce qu’il faut faire pour corriger et faire remonter le trafic Google.

Dites-moi ce que vous pensez de tout ça !

Cet article vous a-t-il plu ?

Note : 4.4 (19 votes)
Cliquez pour voter !

Laisser un commentaire

Remarques :

  • Si vous souhaitez poser une question ou détailler un problème technique, il ne faut pas utiliser le formulaire ci-dessous qui est réservé aux avis. Posez votre question directement dans le forum Gmail de WebRankInfo. L'inscription est gratuite et immédiate.

  • En postant un avis, vous acceptez les CGU du site WebRankInfo. Si votre avis ne respecte pas ces règles, il pourra être refusé. Si vous indiquez votre adresse email, vous serez informé dès que votre avis aura été validé (ou refusé...) ; votre adresse ne sera pas utilisée pour vous envoyer des mailings et ne sera pas revendue ou cédée à des tiers.

28 commentaires

trienne

#Merci pour cet article.

Répondre
Olivier Duffez

Merci ;-) Des commentaires sur certains des points abordés ?

Répondre
jorgev

Bonjour Olivier,

Dans le point 3, relatif à la qualité des pages, tu déconseilles explicitement « des (grosses) pages dont 99% des mots sont cliquables ».

Ca voudrait donc dire que les pages de type « plan de site » pourtant souvent conseillées dans les milieux SEO seraient en réalité à éviter ?

Répondre
Olivier Duffez

Je ne sais pas qui dans le milieu SEO recommande ça, pour ma part ça doit faire au moins 10 ans que je n’ai pas été sur ce type de page (en tant qu’internaute) et autant que je n’ai pas conseillé d’en faire.
Dans mon article, je précise aussi qu’il faut faire du maillage interne intelligent, ce qui exclut ce type de page.
Mon meilleur résumé, expliqué en formation depuis 2006 : « un bon lien est un lien souvent cliqué ».

Répondre
jorgev

Merci pour la réponse. Bon week-end.

Répondre
Nicolas

Merci pour ce retour, mais je suis surpris par ton parti pris sur les plans de site html.
Comment dans ce cas là arrives tu à caser 36000 communes x types de métiers(c’est un exemple) et le tout en – de 3 niveaux de profondeurs sans faire de plan de site ?

Olivier Duffez

Je n’ai pas dit qu’il fallait forcément 3 clics tout le temps (dans RM Tech on a mis au point un algo qui détermine une profondeur max recommandée en fonction du site).
Je ne pense pas non plus au passage qu’il soit toujours bon de faire plusieurs pages métiers pour chaque commune, ça risque de beaucoup ressembler à des pages satellite.

Fabien Branchut

Super article. Cependant, la causalité entre profondeur de page et problèmes de référencement me semble discutable. En effet, + une page est profonde, – elle a de visites SEO, puisqu’en principe, les pages profondes traitent des sujets + de type « longue traine », et donc qui apportent – de trafic SEO car – tapé sur les moteurs.

Répondre
Olivier Duffez

Tu peux essayer de déplacer une page de profondeur 1 en profondeur 4 et voir ce qui se passe (pour ma part je sais que son positionnement va baisser).
Idem pour l’inverse.
C’est une histoire de PageRank, de jus, de maillage.
Une page profonde ne traite pas toujours de sujets ultra longue traine. Et puis, longue traine ne signifie pas faible trafic, ça dépend du nb de requêtes sur lesquelles la page sort.

Cela dit, je suis d’accord sur un principe : il est devenu très difficile de prouver la causalité avec l’algo de Google.

Répondre
Fab

Franchement super article merci ! Par contre je m’interroge beaucoup sur les pages catégories pour une boutique ecommerce… Le texte avant ou après les produits ? Avec du code ou sans pour raccourcir et donner l’opportunité de voir plus pour le visiteur? Avez-vous remarqué des constantes en la matière ?

Répondre
Olivier Duffez

Même si ça semble aussi marcher (peut-être moins ?), je déconseille de mettre tout le texte de présentation d’une catégorie tout en bas de la page. Car ce n’est plus destiné à l’internaute, c’est pour le SEO uniquement… Ou alors une version courte en haut et un lien vers le reste en bas.

Répondre
Paul

Bonjour. On parle souvent que le contenus textes est important. C’est vrai. Mais quand est-il des sites comme youtube ou autre « Youtube Like » qui n’ont que très peu de contenu textuel ?

Répondre
Olivier Duffez

Il faut malgré tout qu’ils aient un minimum de contenu textuel, sinon c’est trop difficile pour le moteur de recherche de comprendre de quoi parle la page (entités) et de la juger pour la faire sortir sur une multitude de requêtes.
En plus, il faut que le contenu (vidéo) plaise.

Répondre
Xavier

Bonjour Olivier,
bravo pour l’article c’est très clair !
Une question cependant :
Pour les pages qui ont peu d’interêt pour l’internaute et qui n’ont donc pas de contenu de qualité (style cgv, contact, etc), que préconises tu ? Les desindexer via le robots.txt ?
Merci
Xavier

Répondre
Olivier Duffez

Je conseille de les laisser se faire indexer.

Répondre
Jeanne

Merci pour ce retour d’expérience.

Quand on supprime un page quelle est la meilleure pratique ?

Quand je fais des 404, je constate que Google continue à crawler la page même des années après…

Répondre
Olivier Duffez

il faut s’assurer qu’il ne reste aucun lien interne vers l’URL supprimée, et qu’elle n’est plus dans aucun sitemap
si Google continue longtemps, c’est peut-être qu’elle avait des backlinks externes. Dans ce cas il est souvent recommandé de faire une redirection 301 pour continuer de profiter de ces backlinks (à moins qu’ils soient très mauvais).

Répondre
MakeOnlineShop

Merci, il faut que je relise , mais je poste ce message pour m’abonner aux commentaires de cette page si possible.

Répondre
gégé

Merci super article !

Répondre
Olivier Duffez

Merci, as-tu déjà repéré ce genre de problèmes sur le site que tu gères ?

Répondre
Matthieu

Bonjour Olivier,

Merci beaucoup pour cet article très riche. Ayant un site dans une situation similaire, j’ai vérifié ton hypothèse et c’est clairement catastrophique… 44% des pages avec 0 sessions et encore 47% avec moins de 10 sessions… En gros le trafic organic est concentré sur à peine 10% des pages.

Ce site étant un e-commerce, les pages visitées correspondent à des catégories et les produits ne génèrent presque aucune session organic… Ces pages sont utiles car elles sont visitées mais pas en page de destination.

Le contenu des pages produits a pourtant été travaillé correctement… Title optimisé, H1 optimisé et un minimum de contenu unique sur chaque produit. Cela étant dit, je ne vois pas trop quoi faire de ces produits… ils sont invisibles dans les moteurs de recherche mais utiles pour les visiteurs du site. Je ne pense pas que retravailler le contenu de ces produits changera la donne…
Je suis curieux de savoir ce qui se passerait si on passait tous ces produits en noindex… Cela ne devrait rien changer au niveau du trafic et allégerait énormément le nombre de pages indexées et donc le travail des bots. Qu’en pensez vous ?

Répondre
Olivier Duffez

Qu’une fiche produit génère aucune visite sur 30 jours, OK. Sur 1 an c’est déjà bien plus étonnant (embêtant). Mais autant de pages qui ne génèrent rien en 1 an, je pense tout de même qu’il doit y avoir des problèmes SEO sur le site (pas forcément tous sur les fiches produits, ça peut être le maillage ou autre chose).
Attention, passer des pages en noindex ne change rien au « travail des bots », ça ne réduit pas le crawl (sauf peut-être au bout de 6 mois quand Googlebot réalise qu’il crawle pour rien).

Répondre
Bill

Merci pour ce récap et ces analyses Olivier.

Je crois avoir un site dans le cas 9 : beaucoup de pages crawlables avec une meta noindex. Typiquement, j’ai des pages récoltant des avis qui sont en noindex tant qu’il n’y a pas encore d’avis.

Penses-tu que ce serait un bonne idée de ranger les pages non indexables dans des répertoires non crawlables, puis de changer individuellement les url de ces pages dès qu’elles sont indexables, pour les rendre crawlables. Par ex :
Ranger dans /non_crawlable/pages_sans_avis/ les pages non indexables
puis déplacer dans /crawlable/pages_avec_avis/ les pages devenues indexables ?

Répondre
Bill

Ok merci. Je suis preneur de tout conseil pour gérer cette situation :)

Répondre
Olivier Duffez

par exemple ne faire un lien vers la page avis que s’il y a au moins N avis (N à définir)

Sébastien DROUIN

Assez content de moi, puisque c’est un presque sans faute, hormis concernant le point 9 auquel je n’aurai pas songé. Et le voilà corrigé dans la foulée ! Merci.

Répondre
Sofia

Un grand merci Olivier pour votre dossier, très complet comme d’habitude.
Pour ma part, je suis actuellement confrontée à une baisse de positions pour le site pour lequel je travaillle. Je peine à en découvrir la cause :(
J’espère qu’avec vos recommandations, j’arriverai à en tirer quelque chose de positif.

A bientôt.

Répondre