💥 on fracasse les prix #SEO pendant le Black Friday

Détails : Nouvelle offre RM Tech Découverte

SEO et écologie numérique
Portrait Olivier Duffez

Olivier Duffez

Créateur de WebRankInfo,
consultant en référencement

5 actions pour améliorer SEO et écologie numérique

Votre activité sur Internet génère beaucoup de pollution… Découvrez les meilleures actions à mettre en place pour favoriser l’écologie numérique et optimiser son référencement.

Article mis à jour le 17/07/2020 (ajout de la partie sur l’hébergement web écologique), publié initialement le 02/06/2020

Vous le savez certainement, le numérique n’est pas si écologique que ça ! Par certains aspects, la dématérialisation génère des économies d’énergie, mais globalement le digital pollue beaucoup sans qu’on s’en rende compte.

Et le SEO dans tout ça ? Est-il possible d’oeuvrer pour l’écologie 2.0 tout en améliorant le référencement naturel ?

Je pense que oui et je vous invite à mettre en place les actions suivantes. Pour le plus grand bien de la planète et de votre trafic organique !

Tant qu’à faire, j’ai listé mes recommandations par priorité, les plus efficaces en premier.

1 Eradiquer la masse noire

Définition de la masse noire

La masse noire, ce sont toutes ces URL que vous générez sur votre site, parfois/souvent sans vous en rendre compte. Les internautes (mais surtout Google et autres moteurs en fait) peuvent s’y perdre, ce qui réduit fortement l’efficacité du site. Concrètement, c’est donc surtout plein d’URL que vous demandez à Google de crawler, et parfois d’indexer alors qu’elles n’ont même pas de raison d’être…

Pourquoi faut-il éviter la masse noire en SEO ?

Tout le temps que Google perd avec ces URL (et les ressources informatiques, donc l’énergie), c’est autant de moins alloué aux pages importantes du site.

Par ailleurs, si des URL de masse noire sont indexées, ça génère souvent des pages zombies (voir ci-dessous). C’est mauvais pour votre référencement…

Comment savoir si j’ai de la masse noire sur mon site ?

Il vous faut un sitemap exhaustif (et savoir combien d’URL il contient).

  1. Allez dans Google Search Console, rubrique Couverture.
  2. Dans le filtre, remplacez « Toutes les pages connues » par « Toutes les pages envoyées ».
  3. Etudiez ce qui est indiqué dans chaque onglet

Si vous avez des URL dans les onglets « Erreurs » ou « Exclues », c’est que certaines URL ont un problème qui empêche que Google les indexe. Même s’il s’agit d’URL de vos sitemaps, c’est peut-être de la masse noire. Notez les nombres indiqués.

Si vous avez 100% ou presque des URL de votre sitemap qui sont dans l’onglet « Valides », cela signifie qu’elles sont indexées et que tout va bien.

Maintenant, retirez le filtre « Toutes les pages envoyées » et revenez à « Toutes les pages connues ».

Si vous avez bien plus d’URL qui sont listées par Google, c’est que vous avez de la masse noire. C’est particulièrement visible avec l’onglet « Exclues » (pages non indexées par Google).

Que faire si je n’ai pas de sitemap exhaustif ?

Si vous n’avez pas de sitemap exhaustif, ce n’est pas bloquant pour votre référencement. Mais c’est bien mieux d’en avoir, c’est même plus écologique ! Car vous savez exactement ce que vous produisez comme contenus et souhaitez faire indexer. L’analyse de la masse noire est plus efficace si on peut filtrer pour distinguer les URL prévues (envoyées dans les sitemaps) des autres (la masse noire).

Pour trouver la masse noire, consultez les différents exemples d’URL fournis par Google et faites le tri entre les URL prévues (que vous souhaitez faire indexer) et non prévues (masse noire).

Comment corriger ?

C’est au cas par cas, il faut apprendre à :

Pas à l’aise avec tout ça ? Participez à ma formation au référencement, à distance et prise en charge dans de nombreux cas !

2 Repérer et traiter les pages zombies

Définition

Comme vous le savez (définition d’une page zombie), il s’agit des pages qui non seulement cumulent énormément de problèmes (et risquent de décevoir l’internaute) mais aussi qui n’ont pas de succès (pas seulement SEO d’ailleurs).

Pourquoi est-ce mauvais en SEO et pour la planète ?

Avoir trop de pages zombies dégrade la qualité moyenne globale de votre site. Hors, Google juge la qualité d’un site sur l’ensemble des pages que vous lui demandez d’indexer (source).

Faire en sorte de ne pas avoir de pages zombies va donc améliorer votre référencement.

C’est également écologique ! Car pour ne plus avoir de pages à fort indice zombie, vous allez :

  • améliorer des pages
  • fusionner des pages (donc réduire la consommation de données liées à votre site)
  • désindexer ou supprimer des pages (là encore, réduction de l’impact écologique)

Comment savoir si j’ai des pages zombies ?

Il suffit de faire un audit RM Tech (version payante), l’outil d’audit SEO de ma plateforme My Ranking Metrics. En effet, cet outil inclut l’analyse des pages zombies (méthode que j’ai mise au point avec mon associé Fabien Facériès).

Envie d’un test gratuit ? Demandez un pré-audit Zombies

Est-ce efficace ?

Oui, clairement ! Regardez par exemple ce retour d’expérience ou cette analyse des updates Google.

Je vous conseille fortement de visionner aussi cette vidéo de Jean-Marc Hardy. Il parle de l’obésité des sites et de la nuisance induite en termes d’écologie digitale. Il recommande une bonne écoconception web en amont et une traque des pages zombies dans tous les cas ;-)

Pages zombies contre obésité et SEO
Obésité d’un site web : Jean-Marc Hardy (Agence Yellow Dolphins) explique que les Pages zombies détériorent le SEO !

3 Publier des articles de qualité (plutôt que viser la quantité)

OK, vous pensez l’avoir lu déjà 36 fois…

Pourtant, ça n’a jamais été aussi efficace, car Google favorise les contenus qui répondent vraiment bien aux attentes des internautes. Chaque article doit être vraiment bon, aussi bien sur le fond que sur la forme. Ainsi, avez moins de contenus mais plus de qualité, vous pourrez arriver en 1ère page de Google.

Et là vous me sortez un autre argument : il faut publier des tonnes de contenus pour que Google considère le site comme expert du sujet (le fameux Expertise du sigle E-A-T).

Pas vraiment ! Vous n’avez pas forcément besoin de dizaines/centaines de pages pour prouver à l’algo de Google que vous êtes un site incontournable sur le sujet concerné. Il vous faut élaborer une stratégie de contenus en amont, pour produire exactement les contenus sur les sujets essentiels pour la réussite du site.

Ne faites pas plein de pages pour parler de vous, de vos produits et services, ça risque d’être inefficace et donc de contribuer à la pollution numérique ! Partez des besoins des utilisateurs pour bien les comprendre, notamment leurs intentions cachées derrière chaque requête. Rédigez ensuite un contenu de qualité, exhaustif, agréable à lire…

Tout ceci contribue à une stratégie SEO propre, plus efficace. En gros, appliquer les principes low tech au SEO.

4 Améliorer la webperf et l’UX

Définition

La webperf, c’est la performance web, en gros (mais pas seulement) : la vitesse de votre site. L’UX c’est l’expérience utilisateur, en partie liée à cette vitesse de chargement.

Pourquoi c’est important ?

  • Pour le SEO car la vitesse est un critère de classement officiel
  • Pour l’optimisation du taux de conversion
  • Pour réduire la consommation électrique liée à votre site

Comment corriger ?

Voici donc quelques actions à mettre en place, pour optimiser le référencement et réduire l’impact écologique du site Internet :

  • supprimer toutes les ressources inutiles (images, CSS, JS, polices de caractères…)
  • choisir une taille d’image (et de vidéo) adaptée : juste la taille nécessaire
  • compresser les images
  • minifier et compresser HTML, JS, CSS
  • utiliser un système de mise en cache côté serveur (sans doute le plus efficace à faire, je dirais même vraiment indispensable)
  • etc.

Certains hébergeurs web compensent leurs émissions de gaz à effet de serre, c’est bien mais insuffisant comme approche.

Pour un meilleur impact écologique du SEO et bosser tout ça, je vous propose :

5 Eviter certaines techniques

Je termine en listant certaines techniques basées principalement sur la publication en grande quantité de contenus généralement de faible qualité, parfois de pur spam. Au-delà des aspects éthiques, ces techniques créent de la pollution digitale. Généralement, ce n’est pas l’automatisation en elle-même qui pose problème, c’est l’usage qui en est fait.

Voici quelques exemples :

  • création de réseaux de sites satellites ou de PBN (Private Blog Networks, réseaux privés de blogs). Je parle ici uniquement des cas où on se fiche pas mal de savoir si ces sites ont un intérêt pour l’utilisateur, ce qu’on cherche c’est des backlinks vers le money site (le site principal). Mais c’est énergivore d’avoir autant de sites (inutiles pour les internautes) !
  • création de tonnes de pages satellite, ou pages à très faible valeur ajoutée. C’est la version limitée à une page du cas précédent et c’est tout autant consommateur d’énergie.
  • publication de spam sur le maximum de sites, afin d’obtenir des liens. Il peut s’agir du traditionnel spam de commentaires, mais aussi de profils et posts dans les forums et réseaux sociaux. Bref, une belle pollution numérique…
  • spam bots sur les réseaux sociaux (et sites web)
  • génération de contenus dupliqués (généralement sans autorisation de l’auteur : plagiat)

Est-ce efficace en SEO ? Ceux qui l’utilisent vont vous l’assurer, tout en expliquant qu’il faut passer par des pros sinon c’est risqué. Voilà le terme : « risqué ». A choisir si c’est pour votre propre site, que vous aimez gagner (peut-être) beaucoup à court terme et que vous acceptez de perdre beaucoup avec un update Google

En tout cas, toutes ces techniques ont un impact environnemental très négatif. Pour ma part, je préfère largement les stratégies présentées plus haut, pour des raisons d’éthique mais aussi de développement durable.

Pour aller plus loin…

Choisir un hébergeur web écologique

Votre hébergement web peut lui aussi être écologique ! En anglais on parle de Green Hosting. Votre prestataire peut en effet avoir une politique stricte de préservation de l’environnement. Il faut dire qu’en plus d’être un argument marketing, réduire sa facture d’électricité est absolument fondamental pour un hébergeur Internet.

Evidemment, un hébergeur web vert fait tourner ses serveurs à l’énergie renouvelable, optimise sa climatisation pour réduire la consommation électrique, exploite l’énergie solaire, éolienne ou géothermique. Certains ont reçu un certificat d’électricité verte : ils s’engagent à utiliser une forte proportion d’énergie renouvelable, parfois 100%. On peut aussi aller plus loin en détaillant parmi cette énergie renouvelable, quelle proportion est produite de façon écologique.

Je ne connais pas assez bien ceux qui font un réel effort dans ce domaine, merci de les indiquer en commentaires. Voici les principaux noms que j’ai trouvés : Infomaniak, Hostpapa, Ikoula, AlwaysData, PlanetHoster, Inmotion Hosting, SiteGround, GreenGeeks. Certains ne sont pas mentionnés car leur politique d’hébergement vert n’est pas assez détaillée.

Des livres sur l’écologie d’Internet ?

Le livre sur le sujet le plus connu semble être « Ecoconception web » de Frédéric Bordage. Ce spécialiste de la question (l’un des meilleurs experts du green IT) fournit pas moins de 115 bonnes pratiques pour « doper son site et réduire son empreinte écologique ». Dommage qu’une partie d’entre elles soient désormais dépassées (utilisation de Flash par exemple). Si vous connaissez d’autres livres, indiquez-les dans les commentaires !

Cet article vous a-t-il plu ?

Note : 4.8 (5 votes)
Cliquez pour voter !

Laisser un commentaire

Remarques :

  • Si vous souhaitez poser une question ou détailler un problème technique, il ne faut pas utiliser le formulaire ci-dessous qui est réservé aux avis. Posez votre question directement dans le forum Gmail de WebRankInfo. L'inscription est gratuite et immédiate.

  • En postant un avis, vous acceptez les CGU du site WebRankInfo. Si votre avis ne respecte pas ces règles, il pourra être refusé. Si vous indiquez votre adresse email, vous serez informé dès que votre avis aura été validé (ou refusé...) ; votre adresse ne sera pas utilisée pour vous envoyer des mailings et ne sera pas revendue ou cédée à des tiers.

7 commentaires

Cris

Bonjour
Merci pour cet article.
Dommage qu’après de si bons conseils écologiques vous fassiez la pub d’Amazon qui est un grand pollueur connu et qui ne respecte pas du tout l’environnement et l’éthique !

Répondre
Olivier Duffez

OK, mais à part ce lien, qu’avez-vous pensé des points abordés dans l’article ? Trouvez-vous cela utile et efficace ? Y a-t-il d’autres solutions pour travailler le référencement tout en maintenant de la sobriété numérique ?

Répondre
DavidLA

Bon article, merci.

Mais je rejoins le commentaire juste en-dessous. Je déconseille le livre cité à la fin de l’article, certaines recommandations sont dépassés. La méthodologie du livre est aussi très discutable.

Répondre
colonies

Contrairement à Olivier, je vous déconseille « Ecoconception web ». Il est truffé de recommandations dépassées, inefficaces, devenues contre-productives avec le temps, de micro-optimisations anecdotiques…
J’ai sa dernière version (3ème édition), et il est clair que la mise à jour a été bâclée. On y parle encore de Flash et de Silverlight, on y trouve des liens vers des domaines qui n’existent plus, des phrases comme « À l’heure où nous écrivons ces lignes (juillet 2015) », des conseils qui se contredisent…
On y trouve aussi de bons conseils, mais si vous appliquez tout ce qui est écrit, globalement vous allez perdre votre temps et, probablement, n’avoir rien fait de très utile.

Répondre
Olivier Duffez

Merci de l’info, j’avoue ne pas avoir lu le livre, uniquement consulté sa présentation (qui colle parfaitement à mon article) et vu que l’auteur est réputé.
Connais-tu d’autres livres sur le sujet, à recommander ?

Répondre
colonies

Non, pas avec un titre mentionnant celui de l’environnement. Mais à vrai dire, le sujet est presque identique à celui de la performance web.
On peut aussi y inclure quelques autres choses, comme limiter les besoins en stockage (par exemple, réduire au maximum le poids des emails envoyés automatiquement).

Ou, comme tu l’écris, limiter le crawl (de pages inutiles, de bots inutiles, de fichiers inutiles).

Cas personnel : j’ai beaucoup de fichiers MP3 sur l’un de mes sites, et Google les crawlait alors qu’il ne les exploite pas. Après un Disallow sur le dossier contenant les MP3, le volume de données de crawl par Googlebot sur ce site est passé de 600Mo/jour à 13Mo/jour (données Search Console, moyenne sur 30 jours).

Sur un autre site, j’ai beaucoup de PDF, parfois très lourds. Je veux qu’ils soient indexés, mais je ne supportais pas les Etag. Maintenant, si le fichier n’a pas changé, je ne renvoie plus qu’un header et ça a eu un effet sur le volume de données crawlées.
Mais finalement, bien gérer les caches et les headers fait aussi partie de la performance. Je ne mentionne les PDF et MP3 que parce qu’on ne pense pas forcément à ces fichiers, alors qu’ils peuvent représenter un volume de crawl important pour certains sites.

Répondre
Ange

Ce genre d’article donne réflexion, je dis merci pour le sujet.

Répondre