Portrait Olivier Duffez

Olivier Duffez

Créateur de WebRankInfo,
consultant en référencement

Référencement grâce à la qualité : suivez la méthode QualityRisk

Avoir trop de pages de mauvaise qualité fait chuter vos performances SEO. D'ailleurs, Google renforce régulièrement cet aspect de son algo... Découvrez comment repérer ces pages, identifier leurs problèmes afin de les corriger et d'améliorer votre référencement.

Article mis à jour le 17/02/2017, publié initialement le 14/03/2016

RM Tech QualityRisk
L'algo QualityRisk de RM Tech détecte les pages de mauvaise qualité

Sommaire :

Pour voir ce que ça donne pour vous testez QualityRisk !

L'estimation de la qualité des sites, au coeur de l'algo de Google

Depuis que Panda est sorti en 2011, Google n'a cessé d'améliorer son algorithme pour tenter de repérer les sites de mauvaise qualité. Plus de 25 itérations de l'algorithme plus tard (pour ne compter que les mises à jour officielles), on entend moins parler de Panda, à part qu'il serait intégré au coeur de l'algo.

Cela veut-il dire que Google ne cherche plus à évaluer la qualité ? Qu'il a échoué ou au contraire qu'il estime avoir atteint un très bon niveau de détection ?

En fait, Panda n'est pas le seul élément de l'algo axé sur le sujet de la qualité des sites (ou des pages, j'y reviens plus loin). Il y a eu des mises à jour importantes non officialisées par Google, baptisées Phantom. Elles semblent également liées à la qualité, ou peut-être plus précisément à l'expérience utilisateur (et sa satisfaction lors de sa visite). Il y a aussi sa détection des pages satellite.

Plus récemment, après de gros changements dans les résultats naturels, Google a indiqué que ce n'était ni Panda ni Penguin, mais des éléments au coeur de l'algorithme, concernant l'analyse de la qualité (les 8 et 16 janvier 2016 et régulièrement depuis). Si vous êtes perdus, lisez mon récapitulatif des algos SEO de Google...

Bref, il est indéniable que Google met le paquet à évaluer la qualité des sites (afin de pénaliser les mauvais, ou de favoriser les bons, à vous de choisir entre le verre à moitié vide ou à moitié plein). Cette analyse de la qualité se décompose au moins en 2 familles :

  • d'abord l'évaluation de la qualité du site lui-même, de ses pages et de leur contenu
  • ensuite l'évaluation de la satisfaction de l'internaute qui visite le site (particulièrement l'internaute que Google envoie depuis les SERP, résultats naturels). RM Tech vous aide à repérer les pages à améliorer...

Si vous pensez qu'un algo ne peut pas vraiment évaluer la qualité, notion fort subjective, détrompez-vous ! Particulièrement depuis que Google a investi massivement dans la recherche en intelligence artificielle (deep learning, machine learning).

Ma conclusion est simple : vous ne devriez surtout pas sous-estimer les capacités de Google à repérer les pages de mauvaise qualité. Surtout qu'elles peuvent pénaliser votre SEO !

Google calcule un score de qualité pour l'ensemble de votre site

A moins d'être développeur de l'algo de Google, il est impossible de l'affirmer... Mais je suis convaincu que Google calcule un score global de qualité pour chaque site. Plus vous accumulez de pages de mauvaise ou faible qualité sur votre site, plus vous plombez votre score, plus vous pénalisez votre référencement.

D'ailleurs, dès la sortie de Panda, le responsable de la lutte contre le spam de l'algo Google, à savoir Matt Cutts, avait affirmé que si une partie d'un site est perçue comme de mauvaise qualité par Panda, c'est l'ensemble du site qui peut être pénalisé. On retrouve cette affirmation dans le blog officiel de Google, dans l'article donnant des conseils sur Panda :

Low-quality content on some parts of a website can impact the whole site’s rankings, and thus removing low quality pages, merging or improving the content of individual shallow pages into more useful pages, or moving low quality pages to a different domain could eventually help the rankings of your higher-quality content.

Voici ma traduction :

Si certaines parties d'un site sont des contenus de faible qualité, alors cela peut dégrader le positionnement de l'ensemble du site. En conséquence, le positionnement de votre contenu de haute qualité pourrait progresser si vous supprimez les pages de faible qualité, ou si vous regroupez ou améliorez le contenu de certaines pages superficielles pour en faire des pages plus utiles, ou si vous migrez vos pages de mauvaise qualité vers un autre nom de domaine.

J'ai justement une solution à vous proposer pour ça ! Lisez bien la suite...

De la même manière, concernant l'algo Page Layout qui pénalise l'excès de publicité (surtout au-dessus de la ligne de flottaison), il a expliqué que l'algorithme se base sur une évaluation moyenne sur l'ensemble du site.

Le risque est donc de ne pas se rendre compte qu'à force d'accumuler des pages de mauvaise qualité, c'est le site entier qui se trouve handicapé. D'après mon expérience, le plus fréquent est que le propriétaire du site ne se rend même pas compte qu'il propose des pages de mauvaise qualité !

Peut-on booster son SEO en corrigeant la mauvaise qualité ?

La réponse simple est "OUI" ! C'est plutôt encourageant n'est-ce pas ?

Je suis en train de rédiger quelques retours d'expérience (issus de mes optimisations pour mes clients, ou de certains de mes contacts)... Voyez l'exemple de Ahrefs qui a quasiment doublé le trafic SEO sur son blog en seulement 3 mois !

Comment doubler le trafic SEO en 3 mois
Comment doubler le trafic SEO en 3 mois, comme l'a fait Ahrefs

En résumé, ils ont repéré les pages de trop mauvaise qualité et les ont soit supprimées, soit améliorées. Ensuite ils ont retravaillé leur stratégie de mots-clés et vérifié que leurs contenus étaient bien optimisés (au niveau de chaque page). Ils ont aussi corrigé certains problèmes techniques SEO et mis l'accent sur la promotion des nouveaux contenus.

Comment repérer les pages risquées en termes de qualité ?

C'est bien entendu la question que l'on se pose !

Identifier les pages de mauvaise qualité cachées sur tout un site...

J'ai cherché longtemps à automatiser ce type d'analyse, car bien souvent il est très difficile de le faire à l'échelle d'un site entier. Voici quelques suggestions :

  • regardez dans votre outil de mesure d'audience quelles pages reçoivent très peu de visites (ne vous basez pas trop sur le taux de rebond, sauf cas particuliers il est peu fiable)
  • regardez dans Search Console quelles pages ont très peu d'impressions dans les SERP de Google
  • faites réaliser un audit de qualité de l'ensemble des pages de votre site (c'est très utile mais assez coûteux, et surtout vous avez le risque d'oublier certaines pages que Googlebot connait pourtant)
  • demandez aux internautes de remplir des questionnaires de satisfaction

Mon idée était qu'il faut quelque chose de très simple, pas cher du tout, pour faire une première identification des pages ayant la plus faible qualité. Ensuite, vous passerez à des analyses plus poussées.

L'algo Quality Risk de RM Tech

Un algorithme "maison"

J'ai donc travaillé avec mes collègues de Ranking Metrics pour améliorer encore RM Tech (notre outil d'audit technique SEO) afin qu'il sache repérer les pages de mauvaise qualité.

Après plusieurs mois de recherche, de tests et de développement, nous sommes très heureux d'avoir abouti à la première version de notre algorithme QualityRisk. Il s'agit d'un algo "maison" qui calcule pour chaque page son score "Quality Risk", c'est-à-dire la probabilité qu'un internaute ou Google l'estime de mauvaise qualité.

Le QualityRisk (QR) est une valeur entre 0 et 100. Plus le QR est élevé, plus la page est jugée par Ranking Metrics comme étant de mauvaise qualité.

Bien entendu, le rapport d'audit fournit de façon détaillée tous les scores QualityRisk des pages de trop faible qualité, avec pour chacune des explications. Je vais donner plusieurs exemples dans le reste de cet article.

Envie de démasquer vos pages de mauvaise qualité ? Lancez votre audit RM Tech !

Laissez-vous guider pour améliorer votre SEO !

Comme le reste de RM Tech, notre approche est pragmatique et le rapport rédigé avec des explications compréhensibles par tous. Il vous suffit de contrôler les pages listées comme étant à risque (elles sont déjà triées dans le fichier Excel).

Pour vous faire une idée rapide des problèmes de manque de qualité sur votre site, consultez l'histogramme dans le rapport. Il indique la répartition de vos pages en termes de QR. Voici un exemple avec un site qui a trop de pages de mauvaise qualité :

Histogramme RM Tech QualityRisk
Cet histogramme permet de voir rapidement quels scores QualityRisk vous avez sur vos pages

Après avoir testé sur plusieurs milliers d'audits SEO, nous avons conclu qu'en moyenne, il faut éviter d'avoir un QR supérieur à 20. Plus vous avez de pages avec un QR>20, plus vous augmentez vos risques que Google attribue une mauvaise note de qualité à votre site. Même si à côté vous avez des contenus d'excellente qualité !

Nous calculons donc un taux d'erreur à l'échelle du site entier, en calculant le pourcentage de pages HTML indexables ayant un QR>20. Voici un exemple issu d'un rapport d'audit RM Tech :

Taux d'erreur QualityRisk
RM Tech fournit un taux d'erreur global du site en termes de QualityRisk

Que faut-il faire des pages de mauvaise qualité ?

J'attire votre attention sur 3 points majeurs :

  • Avec QualityRisk, RM Tech vous aide à identifier des pages qui semblent de mauvaise qualité. Mais c'est à vous qui connaissez bien le site de confirmer que la page est effectivement de mauvaise qualité.
  • Même si une page est objectivement de mauvaise qualité, elle peut générer un trafic SEO non négligeable. Donc avant toute suppression de page, allez toujours vérifier combien elle génère de trafic SEO. S'il est important, améliorez la page mais ne la supprimez pas !
  • Si une page de mauvaise qualité a reçu des bons backlinks, faites en sorte de toujours en profiter. Le mieux est de conserver la page en améliorant son contenu, et si ce n'est pas possible il faut la rediriger en 301 vers une page similaire. Ne la supprimez pas "brutalement" (code 410 par exemple)...

Je détaille beaucoup le principe dans le reste de mon article mais sachez que j'ai présenté QualityRisk au cours d'un webinar très détaillé.

Si vous l'avez raté, profitez du replay gratuit ! Webinar QualityRisk via RM Tech !

Si vous avez déjà bien compris le principe de QualityRisk, vous pouvez déjà passer à la méthode supérieure ! Je parle de ma méthode Pages Zombies SEO, qui aide justement à identifier encore mieux les pages non performantes et à corriger les problèmes associés.

Quelques avis sur RM Tech

Avant de vous montrer plein d'exemples pour QualityRisk, j'aimerais vous partager quelques avis...

Jean-Baptiste Viet, blogueur ayant publié lui-même son livre à succès "Blogbuster", parle aussi de RM Tech :

RM Tech est un outil d'audit SEO complet.

Il m'a permis d'identifier des problèmes SEO à des endroits précis que je n'aurais jamais découverts par moi-même.

La gérante de pescaro.fr (venue en formation Ranking Metrics et cliente de RM Tech) :

Un grand merci pour l'étude complète et approfondie RM Tech pour mon site. C'est une mine d'or ! Il ne me reste plus qu'à l'exploiter.
Grace à la mise en application de vos conseils lors d'une de vos formations SEO, le site Pescaro.fr a énormément progressé et je suis aujourd'hui un peu débordée par sa gestion au quotidien ! (CA x3) Mais c'est le but.
Merci Fabien et Merci Olivier pour votre outil performant et tous vos conseils pertinents.

Voyant l'évolution de son trafic SEO, je comprends que son chiffre d'affaires ait autant progressé !

Trafic SEO pescaro.fr
En suivant les conseils de la formation Ranking Metrics et en utilisant l'audit RM Tech, le trafic SEO du site pescaro.fr a fortement progressé ; le chiffre d'affaires a triplé !
Besoin d'idées pour votre SEO ? + de 70 techniques que j'utilise

Exemples de pages de mauvaise qualité identifiées par RM Tech

Grâce à l'analyse de milliers d'audits (vive le big data), nous avons rencontré un grand nombre de cas de figure et mis au point notre algorithme QualityRisk afin qu'il réussisse à dénicher toutes sortes de pages bien souvent difficiles à extraire de la masse des pages d'un site. En voici quelques exemples (avec l'autorisation des sites concernés).

Je précise que notre algo QualityRisk se base sur une combinaison de multiples critères,  pas seulement sur la taille du contenu. Plus vous accumulez d'éléments déceptifs pour l'internaute, plus vous prenez de risques également pour votre SEO, et plus vous avez un score QR élevé dans votre rapport d'audit RM Tech.

Lisez donc bien tous les exemples ci-dessous ;-)

Pages avec un contenu central totalement vide

On ne s'attend pas à ce que ce genre de page ait un contenu vide, et pourtant ça arrive. Pouvez-vous être certain que vous n'avez aucune page de ce genre sur votre site ? Combien en avez-vous ? RM Tech vous le dirait ;-)

Page contenu vide
Cette page sans contenu a été détectée par RM Tech (algo Qualité)

"C'est pas compliqué, il suffit de compter le nombre de mots dans la page. Par exemple celle-ci en a 118 d'après ce que m'indique un crawler SEO." Voilà le genre de remarque que vous pourriez vous faire, mais justement, nous avons vite remarqué que se baser sur le nombre de mots est nettement insuffisant.

Notre algo QualityRisk exploite plusieurs caractéristiques de chaque page pour repérer une éventuelle qualité trop faible. Regardez par exemple la capture d'écran ci-dessous :

Page au contenu central vide
L'algo QualityRisk de RM Tech a réussi à détecter cette page au contenu central vide même si elle a beaucoup de mots en tout, à cause de l'entête, des menus et du pied de page.

Evidemment, avec une page vide comme ça (et une sorte de titre H1 bourré de mots-clés), l'internaute risque de quitter votre site avec une impression de mauvaise qualité. Avec d'autres crawlers SEO, cette page ne sort pas en erreur car on dénombre 679 mots en tout. Mais ceux-si sont surtout présents dans le méga-menu (d'ailleurs largement sur-optimisé) :

Page contenu vide gros menu
Ce gros menu contient beaucoup de mots, ce qui fait qu'en tout la page pourrait sembler de taille suffisante

Avec QualityRisk, notre outil RM Tech cherche à s'adapter aux différents cas de figure. Par exemple, nous ne traitons pas les sites ecommerce comme les sites de contenus ou de petites annonces.

Vérifiez si vous avez des pages de mauvaise qualité : Lancez votre audit RM Tech !

Pages qui ne devraient pas être indexables

On trouve souvent des pages qui ne devraient pas être indexables (ou même vues par Google). Parfois c'est une toute petite erreur, mais répétée sur un grand nombre d'URL. C'est le cas avec ce site qui laisse Google crawler plein de pages n'ayant ni titre, ni menu, ni aucune navigation, rien qu'un formulaire :

RM Tech QualityRisk page à ne pas faire indexer

Un autre exemple du même genre, avec cette fois une page (actuellement indexée) qui ne contient qu'une publicité (promotion), sans doute prévue pour s'afficher en pop-up :

Page sans menu, indexée
Page sans menu, indexée et détectée par QualityRisk de RM Tech

Pages au contenu trop faible

Ne croyez pas que seuls les cas extrêmes posent problème (pages vides ou quasi vides), les pages au contenu trop faible sont également identifiées par Google ("thin content"). Par expérience, je peux vous dire qu'on a généralement bien plus de mal à les identifier, surtout quand on a "la tête dans le guidon". Parfois, un regard extérieur suffit à repérer certaines faiblesses, mais la machine est "impitoyable", ne se fatigue pas même s'il faut chercher quelques dizaines de pages parmi des milliers.

Besoin d'idées d'amélioration ? Lisez mon dossier Comment faire un site qui plait aux internautes.

Page de type article éditorial

Voici un exemple de page de contenu qui à première vue semble assez bien :

Page contenu trop léger
RM Tech a estimé que cette page n'a pas un niveau de qualité suffisant

En réalité, la question à vous poser est la suivante : "Est-ce que cette page présente une valeur ajoutée bien supérieure à ce qu'on trouve sur Internet sur ce sujet ?". Si votre site a une forte notoriété, vous pouvez vous permettre de publier un contenu de qualité moyenne. Mais dans le cas contraire, pour sortir du lot et avoir la moindre chance d'être en page 1 de Google, vous devriez publier un contenu "10 fois meilleur" que ce qui existe actuellement.

Je ne suis pas le seul à le conseiller, le très respecté Rand Fishkin recommande de ne publier du contenu que si on pense pouvoir produire quelque chose 10 fois meilleur que ce qui existe. Eric Enge, un autre expert SEO très réputé, conseille la même chose.

La page ci-dessus a été identifiée par QualityRisk comme de trop faible qualité. C'est assez logique au final car :

  • le titre n'est pas très explicite ("Goji" uniquement, aussi bien dans la balise title que la balise H1)
  • l'article fait 346 mots, ce qui est correct, mais en réalité insuffisant pour ce sujet : on ne fait que survoler ce qu'il y aurait à dire. On ne peut pas toujours faire des articles de 1000 mots me direz-vous, mais si vous restez "basique", pourquoi seriez-vous en première page de Google ?
  • si vous lisez bien vous verrez qu'il y a des fautes d'orthographe, des fautes de grammaire, des manques de ponctuation
  • on apprend à la fin que cet article est un résumé de ce qu'on trouve sur un autre site : l'internaute aurait sans doute préféré la version originale

Page de type catégorie de produits (ecommerce)

Je poursuis avec un autre exemple, cette fois sur une page catégorie de site ecommerce :

Catégorie au contenu trop léger
Il faut éviter d'avoir trop de pages catégories au contenu aussi léger

Là aussi, à première vue c'est correct, mais si vous n'avez que des catégories de ce type, vous aurez du mal à sortir du lot. Seulement 5 produits, très peu d'explications, titres tronqués : c'est trop peu ! S'il s'agissait de produits très simples à 3€, ça irait, mais ici il s'agit de produits "avancés" à ~1500€.

Evidemment, c'est plus flagrant sur la catégorie ci-dessous qui n'a aucun produit. Certes, dans cet exemple il s'agit des nouveaux produits, mais RM Tech tente de détecter cela partout sur votre site !

Remarque : Je précise que pour tous mes exemples, il s'agit de pages que le propriétaire ou référenceur cherche à faire indexer dans Google.
Catégorie vide
Avec QualityRisk, l'audit RM Tech identifie vos pages de listings vides, pénalisantes pour le SEO

Page de type fiche produit (ecommerce)

Je continue avec un exemple de fiche produit : il s'agit d'une pièce pour un moteur de bateau, vendue ~76€. Voici la page :

Fiche produit au contenu trop faible
RM Tech sait identifier ce genre de fiche produit au contenu trop faible

Avec un outil SEO classique de crawl, on apprend que la page contient 765 mots. Autant dire qu'on aura du mal à se rendre compte qu'elle a un contenu bien trop faible ! Surtout quand on a 10.000 pages à étudier comme sur le site pris en exemple...

Pourtant, à part la citation de Jules de Gaultier, il n'y a rien...

Pour ma part, je conseillerais de fournir des explications sur le fonctionnement de ce produit, sa compatibilité avec les différents moteurs, son installation, sa durée de vie, les outils nécessaires pour le montage, etc. Il pourrait y avoir des photos supplémentaires, une vidéo, des avis clients...

Page membre d'un forum

Comme je vous l'ai déjà indiqué, RM Tech sait s'adapter à tous les types de sites. Après les sites de contenus ou les boutiques en ligne, voici un exemple avec un site communautaire :

Fiche membre forum contenu vide
RM Tech sait repérer une fiche membre de forum au contenu vide

Grâce à cet audit, celui qui gère le SEO sur ce site réalise tout de suite qu'il n'aurait pas dû faire indexer autant de pages, surtout que le système en place génère plusieurs URL (sans contenu) pour chaque membre...

Quel est le QualityRisk de vos pages ? Obtenez leurs scores avec RM Tech

Pages de qualité insuffisante

Comme je vous le disais plus haut, RM Tech ne cherche pas à identifier uniquement les cas extrêmes. Quand une page accumule trop d'éléments potentiellement décevants pour l'internaute, nous attribuons un score QR élevé.

Page avis clients

Regardez par exemple cette page (j'ai tronqué une partie du contenu qui était répétitif, à savoir des avis clients) :

Page trop lente sans titre
Selon l'algo QualityRisk, cette page accumule trop d'éléments qui font que globalement elle n'est pas d'assez bonne qualité

Pourquoi RM Tech indique que cette page n'a pas une qualité suffisante ? Voici quelques pistes de réponse (fournies dans l'annexe du rapport, bien entendu) :

  • cette page est trop lente à télécharger (4521 ms) donc sans doute encore plus à charger en entier pour l'internaute
  • il y a une balise title mais elle est vide
  • idem pour la balise meta description (vide)
  • le titre éditorial est bien un H1 mais il indique uniquement "Camping L'Arlésienne" alors qu'il s'agit d'une page qui liste les avis clients de ce camping

Cette page n'est pas dans les plus mauvaises de ce site, mais grâce à QR on peut identifier des pages de qualité moyenne, faciles à améliorer, ce qui fera progresser le référencement.

Page d'accueil

Une page d'accueil ne se travaille pas de la même manière que les autres pages. Généralement elle bénéficie d'une bonne popularité (grâce à des backlinks), donc pour bien en profiter il faut qu'elle fasse des bons liens vers les pages internes, et qu'elle ait beaucoup de contenu (texte).

Voilà un exemple avec une page en espagnol (RM Tech fonctionne sur les sites multilingues) :

Page d'accueil espagnol trop light
RM Tech repère cette page d'accueil (en espagnol) trop light

L'algo QualityRisk a identifié que cette page d'accueil n'est pas assez bien faite et qu'en ajoutant du contenu et quelques liens, le référencement du site pourrait progresser.

Conclusion

J'ai essayé de vous convaincre qu'avec l'algorithme actuel de Google, vous ne pouvez plus vous permettre de faire indexer trop de pages de mauvaise qualité. Il faut identifier les pages qui relèvent d'une erreur (contenu vide) mais aussi les pages de trop faible qualité. Plus vous en avez, plus votre score global de qualité se réduit, ce qui pénalise votre SEO Google.

Avec RM Tech, vous pouvez identifier facilement les pages ayant un fort risque d'être évaluées de trop faible qualité. En vous concentrant sur la correction de ces pages, vous pouvez améliorer sensiblement votre référencement.

Des pages de trop faible qualité se cachent-elles sur votre site ? Vérifiez-le avec RM Tech

Bonus : replay du webinar QualityRisk

J'ai présenté un webinar très complet sur ce sujet, et je vous propose de le (re)voir en replay gratuit :-)

Si vous l'avez raté, ou pour le revoir : Replay du webinar QualityRisk

Cet article vous a-t-il plu ?

Note : 4.9 (7 votes)
Cliquez pour voter !

33 commentaires

David

Bonjour Olivier,

est-ce qu'un simple no-index permet d'éviter de les intégrer dans le calcul de scoring de Google ? Ou faut-il les dégager purement et simplement ?

Merci !

Olivier Duffez

Oui, ça permet de les exclure de cette analyse je pense. Mais d'une part elles continueront de consommer du crawl pour rien ou pas grand chose, et d'autre part si elles sont de mauvaise qualité, pourquoi les proposer à l'internaute ? Bref, le noindex ne doit être qu'une solution temporaire avant une amélioration de la page (c'est mieux) ou une suppression totale.

Lionel Belarbi

Un peu tard, c'est vrai, ma nouvelle drogue c'est le Quality Risk ! Je veux du 100% pour le visiteur, pour moi, et enfin, et enfin seulement, pour le robot !

RM Tech c'est la base !

Thierry

Merci pour vos conseils précieux et votre réactivité ! Dans ce tutoriel Comment désindexer, vous indiquez ceci :
"il est possible de supprimer une page via Search Console, et pour éviter qu'elle revienne à l'avenir dans l'index de Google, on la bloque dans le fichier robots.txt. Ce n'est donc pas le fait de la mettre dans le robots.txt qui la désindexe, mais la combinaison "demande de désindexation dans GSC + blocage dans robots.txt".

Est-ce une option insuffisante dans le cas présent ?

En définitive, je ne comprends pas si Google tient compte pour son analyse de qualité, de l'ensemble du site ou seulement des pages indexables?

Olivier Duffez

En effet, s'il y a peu de pages, la solution "demande manuelle individuelle dans GSC" + "blocage dans robots.txt" est suffisante.
Google se base (à mon avis) sur les pages indexables.

Thierry

Bonjour,

je travaille à la correction d'un site sur la base d'un Audit RM Tech. Le score Quality Risk a entre autres mis en avant les pages dont le contenu était insuffisant. Typiquement, des pages de taxonomie avec peu ou pas de contenu pour un terme donné.

Est-il suffisant de désindexer les pages incriminées dans robots.txt ? Faire en sorte qu'elles ne soient pas générées serait bcp plus long à développer. Et pour certaines pages, il est impossible de les supprimer (contact par ex).

Merci

Olivier Duffez

Le fichier robots.txt ne permet pas de désindexer (sauf si on utilise la directive Noindex: qui n'est ni officielle ni conseillée par Google), il permet d'interdire le crawl, ce qui est différent et insuffisant dans le cas présent.
Si le problème concerne des pages de catégorie, ça serait bien d'automatiser la balise meta robots noindex en l'incluant quand il y a trop peu d'éléments listés dans la page.
Pour apprendre les détails de la désindexation de page, je conseille mon tuto https://www.webrankinfo.com/dossiers/indexation/comment-desindexer

Enfin, ne désindexez pas vos pages de contact ou mentions légales même si elles ont un mauvais score QualityRisk, c'est normal !

Toutatix

Bonjour,

Penses tu qu'une page qui affiche une seule infographie (au milieu d'un blog) a de fortes chances d'être considérée comme une page de mauvaise qualité ?

Merci :)

Olivier Duffez

Si la page n'a que l'infographie sans aucune explication, ça risque d'être insuffisant en effet. S'il y a aussi des explications, c'est sans doute bien mieux.
Sauf si l'infographie est ultra qualitative...

hams

Hello à tous et plus particulièrement à @nicolas et @olivier

Premièrement, merci pour cette article contenant de nombreux points de vue sur ce qu'est une page de qualité.

Je voulais rebondir sur l'exemple de la page de Nicolas qui répond à une question précise : fiche-auto.fr/questions/Duster-3.html

Certes, la page a première vue est de bonne qualité car elle est agréable à lire, et surtout, elle répond simplement et efficacement à une question pouvant être posée par un internaute...

Cependant, dans ce cas, ne faudra-t-il pas chercher à comprendre pourquoi d'autres sites sont mieux positionnés ?

Est-ce suffisant par rapport à ce que proposent d'autres sites sur cette question/thématique ?

J'ai rapidement regardé le premier positionné sur la requête "quelle huile pour duster"

http://pieces-auto.mister-auto.com/huile-moteur-dacia-duster_lg3224_ls8547/

Bien que cette page réponde aussi à la question de l'internaute, elle a surtout le mérite de permettre à celui-ci de continuer sa navigation, et donc de rester sur le site :
Recherche par marque, recherche par immatriculation, liens vers d'autres rubriques...

Je pense qu'une page doit contenir des éléments qui favorisent les interactions avec l'utilisateur (formulaires, outils de recherche, liens connexes), ou tout simplement l'internaute à rester plus longtemps sur la page : contenu long, riche, rassurant ...

C'est surement ce qu'on appelle "l'expérience utilisateur". La capacité à une page web ou à un site  :
- de retenir l'utilisateur le plus longtemps possible.
- de multiplier les interactions (clics, navigation, recherche).
- d'inciter l'internaute à revenir.

David

Bonjour,

Quand vous dites "supprimez-les", peut-on ajouter une meta noindex ou bien doit-on la supprimer réellement ?

Olivier Duffez

ça dépend des cas David ! si possible il faut sauver la page pour l'améliorer plus tard... Je détaille tout ça gratuitement dans mon webinar, inscrivez-vous pour le replay !

pescaro

Bonjour,

un grand Merci pour l'étude complète et approfondie RM Tech pour mon site.
C'est une mine d'or!
Il ne me reste plus qu'à l'exploiter.

Grace à la mise en application de vos conseils lors d'une de vos formations SEO le site ​Pescaro.fr a énormément progressé et je suis aujourd'hui un peu débordée par sa gestion au quotidien! (CA x3)
Mais c'est le but.

Merci Fabien et Merci Olivier pour tous vos conseils et vos outils pertinents et performants.

Boloky

Une chose me surprend quand même dans cet article très riche et fort intéressant. IL faut des pages avec un fort contenu. Mais n'est-ce pas trop que d'en mettre des tartines sur une seule page ? N'oublions pas que les sites doivent surtout pouvoir être lu sur un smartphone. Or pour que le lecteur ne soit pas dégoûté par une information trop dense et garder une certaine homogénéité, il convient au contraire je trouve de ne pas trop en mettre et d'aérer le contenu.

Olivier Duffez

Je ne dis pas qu'il faut des pages avec un fort contenu mais avec un contenu de qualité. C'est assez subjectif et difficile à évaluer !
Attention : dans QualityRisk, la taille du contenu n'est qu'un des critères.

Nicolas Chevallier

@eskimo, la solution préconisée est un cas particulier qui n'arrive pas forcément. Pour de l'actualité, je tombe sur un article, est ce que je vais rester 10 minutes à le lire puis repartir, éventuellement cliquer sur un autre résultat de Google, ou est ce que j'ai une popup infermable et au bout de 2 secondes je suis allé chez le concurrent ?

Le taux de rebond ajusté permet de mesurer les cas d'aller/retour rapide.

eskimo

Olivier à plusieurs reprises tu indiques qu'il est impossible de mesurer le taux de retour en arrière dans les SERP
"Si je savais mesurer le taux de retour en arrière dans les SERP, ça serait pratique. Mais il faudrait hacker Google pour ça ;-)"
en fait on peut se faire une idée assez grossière à partir du moment où l'on dispose du chemin par utilisateur.
ex :
page 1 > page 10 > page 5 > page 8 > page 5 > page 10 > page 1
A partir de la page 5 le temps de consultation est de 1 seconde.
C'est clairement un cas de pogosticking avec retour sur Google.

Piwik enregistre ces données... on peut également coder facilement l'enregistrement des chemins utilisateurs soit même.

A partir de ce moment là on peut faire un calcul à partir des logs genre :

SI URL dernière page = url première page ALORS vérifier la symétrie
et si le temps de consultation des 3 dernières pages( pour le cas cité plus haut) est > 2 secondes alors grande probabilité de pogosticking avec retour sur google.

Après on ne peut pas calculer le cas "recherche google > page du site > retour page recherche google" mais le cas "page 1 > page 10 > page 5 > page 8 > page 5 > page 10 > page 1" arrive très souvent et permet de commencer à ce faire une idée.

Olivier Duffez

@eskimo : en effet, on peut trouver des moyens pour affiner l'analyse et identifier des problèmes, même si ça ne correspond pas réellement au retour dans les SERP.
Tu indiques " > 2 secondes" mais tu voulais dire "< 2 secondes" je suppose ? PS : tu parles de Piwik, mais GA le permet également non ?

Hubert

bonjour
je me suis précipité pour obtenir un audit gratuit, et je suis très heureux d'avoir pu en bénéficier. Contenu trop faible, méta description trop courte : j'ai déjà fait du ménage : un grand merci à Olivier.

Je suis perplexe en revanche face à l'erreur "301". Je fais, dans le .htaccess, une redirection des pages www. vers les adresses "sans www." et c'est jugé comme étant une mauvaise pratique. Ma question est probablement naïve, mais je la pose quand même : je dois faire quoi ?

merci de votre retour
cordialement
Hubert

Olivier Duffez

@Hubert : quand on modifie l'URL d'une page (j'appelle ça "casser"), il faut en effet mettre en place une redirection 301 de l'ancienne URL vers la nouvelle. Mais il faut aussi modifier tous les liens qui pointent encore vers l'ancienne URL afin qu'ils pointent directement vers la nouvelle.
Justement, RM Tech détecte les liens internes qui ne pointent pas directement au bon endroit. Le rapport aide dans les détails en fournissant l'ensemble des pages faisant des liens vers des pages qui se font rediriger.

Webludi

Bonjour,
Cet exposé est plus qu'explicite, il montre bien que l'Internet de qualité n'est pas pour demain. C'est malheureux à dire, mais je suis soulagé de constater qu'il y a du pain sur la planche, moi qui démarre mon activité de SEO cela m'encourage.
Merci à toute l'équipe Ranking Metrics

Nicolas Chevallier

Vouloir cibler trop de requêtes différentes (donc pas similaires!) avec la même page va forcément avoir un impact sur l'expérience utilisateur. Sur mobile il va devoir scroller pour chercher la réponse à sa question. Suivant le type de pages, le public ... Chaque stratégie peut être intéressante. Autres pointsqu'un algorithmes ne peut pas mesurer :
- l'efficacité d'un moteur de recherche interne. Sur mobile la encore c'est crucial.
- les interstitiels (pub ou abonnement newsletter) qui peuvent faire fuir l'internaute sans même regarder le contenu, le pire scénario.

Nicolas Chevallier

@Fabien : j'aurai du m'abstenir de donner cet exemple mais soit allons jusqu'au bout.
D'abord les 2 exemples donnés :
Page oscaro : il faut combien de clics et de navigation pour arriver finalement à la réponse ? 2 pages et 3 champs de formulaire.
Sur mobile avec une connexion 3G standard, on oublie.

Page carbon cleaning (qui cible les logan...) : on m'explique à quoi sert l'huile, les différentes normes, la viscosité, ca y est je suis expert en huile !
Mais désolé la réponse est "perdue" au milieu de blah blah inutile pour cette requête. Bien sur si je cherche à savoir ce qu'est une vidange, la différence entre une révision et une vidange, la viscosité, c'est autre chose (j'ai d'ailleurs d'autres sites qui répondent à ces questions).

De mon coté j'ai créé un visuel avec les différents bidons d'huile correspondant, pour rassurer l'internaute et le guider si il est déjà dans le magasin, et je lui apporte l'information directement : quelle huile utilise Dacia pour le Duster ? Le tout avec un affichage rapide, l'information au dessus de la ligne de flottaison même sur smartphone.

Aujourd'hui si je cible une requête large, je vais essayer de répondre à toutes les questions possibles (avec des liens, visuels...) Mais si je cible une requête hyper spécifique, je vais répondre directement. Plus de blah blah, plus de taille de texte minimale. Si je cherche l'age de Brad Pitt, je veux juste une page qui contienne en gros 52 ans et sa date de naissance (tiens tiens c'est ce qu'affiche Google dans son answerbox).

Olivier Duffez

Certes Nicolas, mais tu conseilles de faire une page de ce genre par requête ? Une autre stratégie est de viser davantage de requêtes avec davantage de contenu par page.
Ou bien faire un peu des 2 ;-)

Fabien

Bonjour à tous,

Pour répondre à @nicolas je ne trouve pas la page http://www.fiche-auto.fr/questions/Duster-3.html assez bonne qualité perso.

A la limite je préfère globalement cette page http://www.carbon-cleaning.com/huile-moteur/diesel/dacia/logan-dci-75-75ch

il manque aussi des liens internes comme sur cette page https://constructeurs-auto.oscaro.com/huile-accessoires-vidange-dacia-duster-702548-155-scf

il faut toujours regarder la requete et la première page pour améliorer ta page et ajouter des infos sur celle-ci.

Nicolas Chevallier

Sans hacker Google, certains plugins Chrome pourraient très bien être développés/utilisés pour remonter ce genre d'infos, comme la barre Alexa à l'époque ou les MozBar, ...
Reste le problème de faire installer cette barre par le plus grand nombre, donc apporter une réelle plus value.

Olivier Duffez

En effet Nicolas, il est possible de recueillir certaines infos, mais pour être exploitables il faut atteindre une taille énorme

Nicolas

Bonjour Olivier,

Même si je suis d'accord avec les bons conseils donnés et je pense que l'outil développé peut être utile dans beaucoup de cas, certains points peuvent induire en erreur.

Après la sortie de Panda, les référenceurs ont fait une analyse (trop) rapide des critères pouvant pénaliser un site, et on a beaucoup entendu parler de low quality content, thin content, ... Tout le monde s'est précipité en pensant que le Saint Graal serait le contenu de plus de xxx mots. (moi le premier! j'ai perdu 2 ans d'optimisation).

Au contraire et l'idée que Glenn Gabe et d'autres essaient de populariser est la notion d'expérience utilisateur, et elle ne se compte pas en mots, ni n'est calculable ! Olivier, tu en as déjà d'ailleurs longuement parlé dans tes articles. Panda était/est basé principalement sur la notion d'expérience, de satisfaction : est ce que pour une requête donnée, ce site répond le mieux à la demande ? Je reste persuadé qu'il n'y avait aucune analyse de page, juste une énorme base de données collectant les informations suivantes : pour une requête donnée, pour une position donnée, quels sont le CTRs, le poggosticking, et est ce que l'internaute a cliqué sur un autre résultat. Ils ont ensuite fait varier les résultats dans le temps, sur une heure, une journée, une semaine... Et ces données permettaient de sanctionner les sites qui étaient "trop bien positionnés" par rapport à la satisfaction des internautes.

Les searchbox de Google prouve bien d'ailleurs le raisonnement : si la réponse est "trop" simple, Google l'affiche directement.

Un exemple de contenu court qui répond parfaitement à une requête : fiche-auto.fr/questions/Duster-3.html
Cette page va se positionner car très peu de pages répondent aussi simplement et directement à la question. On trouve la même information dans un PDF de plusieurs Mo et dizaines de pages, sur des posts de forums avec des dizaines de réponse ... Et à mon avis cette page sortira avec un mauvais QualityRisk, au contraire des pages concurrentes.

A mon avis il faut surtout réfléchir à imaginer le contenu idéal ET l'interface idéale (moteur de recherche avancé, rapide...), qui est surement plus complet pour des requêtes larges que des requêtes très spécifiques.

Olivier Duffez

@Nicolas : je suis tout à fait d'accord avec toi sur le fait qu'il ne faut pas résumer qualité de page à nombre de mots. D'ailleurs, le nombre de mots n'est qu'un des critères de notre algo ;-) Par ailleurs, je précise très clairement (surtout dans le rapport d'audit RM Tech) que cette analyse n'est que le début d'un audit qualité : QualityRisk est là pour faire gagner un temps fou pour repérer plein de choses qui ne devraient pas être indexables, ou en tout cas pas avec ce niveau de qualité. Je dis très clairement qu'il faut compléter ça par d'autres analyses.
Si je savais mesurer le taux de retour en arrière dans les SERP, ça serait pratique. Mais il faudrait hacker Google pour ça ;-)

Tu penses à quels autres critères mesurables ?

PS : dans ton exemple, la page ne sort qu'en page 2 pour la requête exacte (le libellé de son H1), ce n'est pas si flagrant. Et peut-être qu'elle pourrait être améliorée, y compris pour l'internaute, et qu'elle remonterait dans les SERP.

kdoussaint

Bravo, sincèrement, quel outil fantastique !

Alexandre

Merci de votre réponse Olivier ;) De ce fait je suppose qu'il vaut mieux les passer en No Index... Cela ne représente aucun intérêt de les laisser indexées.

Alexandre

Merci pour cet article Olivier ! Toujours un plaisir de vous lire :)

Pour ma part j'aurais aussi ajouté les sous-pages d'archives du genre /page/2/ que l'on peut trouver dans la navigation de WordPress (par exemple).

Font-elles aussi partie de ce que l'on appelle des pages de basses qualités ?

Olivier Duffez

Merci @Alexandre : je pense que les pages de la pagination (pages 2 et suivantes) sont plutôt à ranger dans le "inefficace en SEO" mais moins dans le "de mauvaise qualité (pour l'internaute)". Cela dit, on en tient compte aussi d'une certaine façon dans notre algo.

Les commentaires sont fermés