Portrait Olivier Duffez

Olivier Duffez

Créateur de WebRankInfo,
consultant en référencement

Update Fred de Google (enfin officielle) : infos et conseils

Que s'est il donc passé chez Google vers le 8 mars 2017 ? Un changement d'algo important c'est certain ! Suite à une blague sur Twitter, il a été appelé Fred. Voici mes trouvailles sur Fred v1...

Article mis à jour le 03/04/2017 (détails par Gary Illyes de Google), publié initialement le 20/03/0217

La sortie non officielle de l'update Fred, finalement officialisée !

On a commencé à en entendre parler le 8 mars 2017  ici même sur le forum WebRankInfo, avant même le veilleur SEO le plus attentif, à savoir Barry Schwartz qui a publié son 1er article ensuite. C'est lui qui a popularisé ce nom "Fred" après une discussion avec Gary Illyes (de Google). J'utiliserai donc ce nom dans le reste de l'article (c'est pas plus ridicule que Panda, Pingouin ou Pigeon).

A ce moment-là, les premiers sites touchés (impact négatif) semblaient surtout ceux gérés par des black hat, c'est-à-dire utilisant des méthodes contraires aux consignes de Google. Voyez par exemple cette discussion sur BlackHatWorld.

On a donc logiquement pensé que la mise à jour Fred était basée essentiellement sur les backlinks, puisqu'il s'agit encore des moyens les plus efficaces (en tout cas à court terme) pour booster un site dans Google.

Puis, d'autres témoignages sont arrivés, au fur et à mesure que d'autres sites ont été concernés. Comme je l'explique dans le reste de cet article, il est possible que le déploiement de Fred ce soit fait en plusieurs phases.

On a eu beau demander à Google une confirmation de cette mise à jour, on a eu droit au désormais traditionnel "Oui tout à fait, il s'est passé quelque chose ce jour-là, d'ailleurs il y a au moins 2 updates chaque jour :-)".

Comme d'autres fois, après 1 ou 2 semaines de pression, les "porte-parole" de Google ont fini par confirmer qu'il y a bien eu une mise à jour. D'abord Gary Illyes sur Twitter :

puis John Mueller dans un hangout vidéo :

Si l'on en croit John, il s'agit d'une mise à jour concernant l'évaluation globale de la qualité du site, ce qui colle à peu près à mon avis perso détaillé dans le reste de cet article.

Edit du 03/04/2017 : Gary Illyes a précisé qu'il y a eu plusieurs mises à jour autour des dates correspondant à ce qu'on appelle "Fred Update". Voici son tweet :

Dit autrement : il y a eu plusieurs mises à jour correspondant à des critères différents, à quelques jours d'intervalle. Pour moi cela colle bien avec l'idée qu'il y a effectivement eu une mise à jour de l'évaluation des backlinks (pour sanctionner ceux qui en ont trop d'artificiels) ET des mises à jour sur la qualité (similaires à celles de Panda et Phantom).

Update Fred
Update Fred de Google (mars 2017)

Mon avis sur l'update Fred

Ayant accès à pas mal de sites (clients consulting, clients de ma plateforme SEO, contacts en tous genres via WebRankInfo), j'ai comme toujours pour les gros "updates" fait ma petite enquête.

Je vais vous donner toutes les infos que j'ai pu trouver, et même si ça ne vaut pas grand chose, j'espère que ça pourra vous aider. Dans ce cas, merci de partager cet article !

Comme pour toute mise à jour (brutale) d'algo de Google, j'ai fait un certain nombre d'analyses avec mes outils dont évidemment Google Analytics, Google Search Console et l'analyse du positionnement. Il s'agit ici d'abord d'établir s'il y a eu un impact (positif ou négatif). Dans le reste de l'article, j'utiliserai le terme "pénalisé" pour parler d'un site dont le trafic a chuté avec Fred, même si on ne devrait parler de pénalité que pour les actions manuelles.

Ensuite, surtout pour les sites impactés négativement par Fred, j'ai creusé.

Logiquement, j'ai commencé par auditer leurs backlinks, à la recherche de stratégies de netlinking risquées.

J'ai aussi évalué l'optimisation SEO globale de chaque site en lançant un audit RM Tech pour chacun. Même si tout le monde ne parlait que de backlinks, j'ai souhaité évaluer la qualité des pages concernées. Pour ça, l'algo maison QualityRisk de ma plateforme My Ranking Metrics me fait gagner un temps fou (d'ailleurs, je ne vois pas avec quel autre outil je pourrais ainsi repérer des pages suspectes parmi les milliers de ces sites web).

Enfin, sur les pages les plus concernées par la mise à jour, j'ai fait une analyse humaine.

Voici donc mes conclusions à l'heure où je publie cet article (cliquez pour partager sur Twitter)...

La 1ère cause de pénalité est l'abus de backlinks artificiels, c'est-à-dire ne respectant par les consignes de Google. Comme très souvent, c'est surtout une trop forte dose d'ancres exactes qui fait chuter (texte du lien = uniquement des mots-clés).

Un point très important à mon avis : les liens en cause peuvent être très anciens, au moins plusieurs années. C'est comme si Fred incluait une partie de Penguin (algo contre la suroptimisation SEO et particulièrement les backlinks), mais avec une évaluation différente. Je rappelle que Penguin est censé être inclus dans l'algo global de Google, et mis à jour en continu.

Marie Haynes a montré un exemple de site qui a remonté en flèche avec Fred, alors qu'il avait lourdement chuté en 2014 à cause des backlinks artificiels. Un gros travail de nettoyage avait été fait et c'est avec Fred qu'il a porté du fruit. C'est un indice de plus que la suppression ou le désaveu des liens toxiques peut effectivement aider à faire remonter un site.

Voilà son tweet :

J'ai lu que certains pensent qu'ensuite le site est pénalisé sur les requêtes concernées par ces backlinks artificiels, mais sur l'ensemble du site, pas seulement la page de destination. Voilà un exemple :

Ce n'est pas tout à fait mon avis, mais c'est quasi impossible de le savoir de façon très précise.

En fait, et c'est un autre élément majeur de Fred selon moi, l'algo cherche à évaluer si l'on peut encore faire confiance au site. Si Google repère un trop gros nombre de liens "toxiques", la confiance accordée au site chute d'un coup.

La conséquence est que le site perd des positionnements sur des requêtes pour lesquelles il était 1er depuis très longtemps, avec des pages 100% clean, y compris sans aucun backlink. La chute est bien moins forte que pour les pages recevant les BL artificiels (j'ai vu du -60% de trafic !) mais elle peut atteindre 10%, pile le même jour.

D'ailleurs, à part repérer ces chutes pour des pages n'ayant absolument rien à se reprocher, un autre indice m'a amené à cette conclusion sur cette "perte de confiance".

En effet, j'ai remarqué qu'un site pénalisé avec Fred perdait souvent l'affichage des étoiles dans les pages de résultats Google (on appelle ça les rich snippets liés aux avis). Vous le savez sans doute, pour bénéficier de cet "extrait enrichi", il faut non seulement respecter à la lettre les spécifications techniques mais aussi être sélectionné par l'algo.

Dans Search Console, vous pouvez obtenir le nombre de clics ou impressions dans les SERP de vos pages ayant un extrait enrichi. Voici ce que ça donne pour un site étudié :

Perte rich snippets update Fred

Pour Google, ce site ne mérite donc plus cet affichage, même si les pages contiennent toujours le code requis. Il va devoir "revenir dans les clous" et prouver que Google peut encore "lui faire confiance"... Il s'agit de pages clean (j'ai vérifié, tous les liens sont OK et le contenu est de qualité) d'un site ayant par ailleurs des pages avec BL artificiels.

Autre sujet, la pub. La relation de Google avec la pub est vraiment "Je t'aime moi non plus", ne trouvez-vous pas ? C'est ce qui enrichit tant Google, mais qui peut aussi plomber ceux qui en abusent sur leur site. Pas Google, qui sur ce coup est plutôt "Faites ce que je dis mais (surtout) pas ce que je fais."...

Pas mal de sites pénalisés par Fred avaient un peu trop de pub, certes. Mais d'une part j'ai trouvé des sites sans aucune pub pénalisés et d'autre part la plupart des cas étudiés n'affichaient pas de publicité de façon excessive.

Peut-être qu'il faut la voir comme un élément qui dégrade la qualité perçue des pages, un critère parmi d'autres. Et que pour certains sites, c'est un mauvais point supplémentaire qu'il aurait fallu éviter ?

A part les mauvais liens et la pub, je vous avoue avoir du mal à distinguer ce qui déplait à Fred. En tout cas, ce qui le différencie des autres algos de Google.

Au fait, connaissez-vous les principaux ? Le top 10 des algos de Google

Je suis globalement assez d'accord avec Jennifer Slegg qui pense que Fred est une sorte de nouvelle méthode d'évaluation de la qualité d'un site, prenant en compte aussi bien les aspects internes (comme Panda et Phantom) qu'externes (comme Penguin).

Le problème que vous aurez après avoir lu son article, en tout cas c'était mon sentiment, c'est "je ne suis pas vraiment avancé"...

Que faire concrètement ?

Maintenant que le temps a passé, il est temps de décider quoi faire pour remonter, n'est-ce pas ?

A votre place, voici les 2 premières actions que je ferais, dans l'ordre :

1- un audit vraiment exhaustif de vos backlinks, incluant même les plus anciens (ceux que vous n'aviez pas désavoués, pensant être passé "entre les mailles du filet"). Concentrez-vous sur ceux pointant vers les pages ayant très fortement chuté. Les backlinks indéniablement "artificiels" doivent être supprimés (je sais, c'est quasi impossible) ou désavoués (même si ça vous fait mal, avez-vous vraiment d'autres solutions ?).

Si vous ne savez pas comment faire, je peux faire un audit de backlinks

Evidemment, si par miracle vous pouvez obtenir des bons liens pour compenser, c'est encore mieux !

2- un audit de qualité de l'ensemble de votre site, en commençant là aussi par les pages ayant le plus chuté. Demandez-vous si la page est construite pour apporter une réponse à l'internaute qui débarque dessus depuis Google. Tout ce qui peut jouer en défaveur de sa satisfaction doit être corrigé (abus de publicité, contenu trop faible, temps de chargement trop long, incompatibilité mobile, inexactitudes dans les informations fournies, etc.).

Si vous avez un petit site ça devrait être rapide, mais dans le cas inverse c'est une autre paire de manches... Bon courage !

Pour un 1er repérage des pages de mauvaise qualité, regardez leur QualityRisk

Les autres avis

Juan Gonzalez de l'outil Sistrix a étudié 300 sites dont l'indice de visibilité dans Google (selon son outil) a chuté après le 13 mars. Il donne ici des exemples de sites pour l'Allemagne, l'Espagne, le UK et les USA. Voici son résumé :

Nearly all losers were very advertisement heavy, especially banner ads, many of which were AdSense campaigns. Another thing that we often noticed was that those sites offered little or poor quality content, which had no value for the reader. It seem that many, but not all, websites are affected who tried to grab a large number of visitors from Google with low quality content, which they then tried to quickly and easily monetize through affiliate programs.

Ce qui signifie :

Presque tous les perdants contenaient beaucoup de publicités, surtout des bannières, AdSense pour la plupart. Nous avons également remarqué que ces sites offraient peu de contenus de qualité, ou des contenus pauvres sans valeur ajoutée pour le lecteur. Il semble que beaucoup des sites pénalisés (mais pas tous) tentaient de récupérer le plus de trafic possible depuis Google avec du contenu de faible qualité, pour ensuite essayer de le monétiser rapidement par de l'affiliation.

Certains sites avaient pu croître très rapidement avant de s'effondrer avec cet update. C'est le cas par exemple d'un site qui se contente d'afficher sur chaque page le code postal d'une ville, noyé sous la pub :

Page avec trop de pub
Cette page a bien trop de pub et presque aucun contenu, ce que l'update Fred semble chercher à pénaliser.

Voici sa conclusion :

Through those nearly 300 domains it became very apparent that many pages had a lot of advertisement, outdated, thin and scraped content, as well as incomprehensible articles made up of 300 word “SEO texts” pumped to the brim with main keyword mentions and void of any useful information or a sense of readability.

Ce qui signifie :

Sur ces 300 sites, cela saute aux yeux que beaucoup avaient des pages avec trop de publicités et un contenu pas à jour, superficiel ou "pompé ailleurs" (scraped), ou bien des articles incompréhensibles de 300 mots de "textes SEO" pompés de partout avec des répétitions du mot-clé principal et vides de toute information utile ou de bonne lisibilité.

Et vous ?

Dites-moi dans les commentaires ou par email ce que l'update Fred a donné pour vous.

Votre avis sur mes hypothèses et votre retour d'expérience peut en intéresser plus d'un, alors n'hésitez pas !

Cet article vous a-t-il plu ?

Note : 4.3 (32 votes)
Cliquez pour voter !

Laisser un commentaire

Remarques :

  • Si vous souhaitez poser une question ou détailler un problème technique, il ne faut pas utiliser le formulaire ci-dessous qui est réservé aux avis. Posez votre question directement dans le forum Gmail de WebRankInfo. L'inscription est gratuite et immédiate.

  • En postant un avis, vous acceptez les CGU du site WebRankInfo. Si votre avis ne respecte pas ces règles, il pourra être refusé. Si vous indiquez votre adresse email, vous serez informé dès que votre avis aura été validé (ou refusé...) ; votre adresse ne sera pas utilisée pour vous envoyer des mailings et ne sera pas revendue ou cédée à des tiers.

23 commentaires

Patrick

C'est bien beau tout cela. Mais perso avec tout ces changements GG cherche plutot à maintenir sa "clientèle" et pas maintenir la qualité des pages. Exemple recherchez: "ascenseur appartement". Vous ne serez pas déçus ou pas mal déçus. Suis en 18eme. Que font des annonces immobilière dans cette recherche ?????

Répondre
Olivier Duffez

On trouve des articles (contenus éditoriaux) et des annonces en effet. Tu étais en page 1 avant Fred ?

Répondre
EvoFred

Merci pour cet article clair et complet. Et joli nom pour cet update ;-)

Répondre
Franky

Bonjour Olivier,

Merci pour cet article très enrichissant. Un point reste pour moi obscur : tu traites dans ton article massivement de backlinks artificiels et de leurs effets "plombant" l'indice de confiance pour le site concerné.
Si j'ai bien compris, c'est ce que tu as pu constater lors de tes tests mais tu ne parles pas ou très peu du contenu de faible qualité au niveau interne (low value content) évoqué par Barry Schwartz ici => https://www.seroundtable.com/google-confirm-fred-algorithm-update-23603.html ou évoqué récemment par John Mueller lors du Hangout ("improve the quality of the website").

Néanmoins tu cites Juan Gonzalez qui fait part explicitement de cet aspect de Fred et même sans forcément avoir de publicité / bannières sur le site concerné.

Je voulais donc avoir ton avis sur ce point : penses-tu que Fred arrive mieux à cerner le contenu de faible qualité (ou sur-optimisé) que Panda et Pingouin respectivement ?

Merci pour ton retour sur ce point.

Franky

Répondre
Olivier Duffez

moi aussi je pense que plusieurs critères d'évaluation de la qualité sont combinés avec Fred, une sorte de best of des algos Panda + Phantom + Penguin et peut-être aussi d'autres du style "trop de pub" ou "pages trop lentes"...

Répondre
Alex

Ah OK c'est donc plutôt si le site parle de chaises et que tous les backlinks ont pour mot clé chaise?

Merci !

Répondre
Olivier Duffez

il faut surtout raisonner page par page et faire une nette différence pour la page d'accueil

Répondre
Alex

Bonjour

Quand vous parlez de backlinks avec trop de mots cles, je ne comprends pas. Imaginons pour un article j'ai comme mot clé "nez rouge".

Il faut éviter que les backlinks vers cet article soient ancrés sur "nez rouge" ... C'est ça?

Pour autant nez rouge" serait la meilleure ancre pour le lecteur.

Merci de vos réponses bonne journée

Répondre
Olivier Duffez

pour un lien interne, il y a peu de problèmes à appeler ça "nez rouge" en effet
pour un lien venant de l'extérieur, c'est peu gênant si la page de destination est une page interne. Encore que ça doit pas être si fréquent que ça d'avoir pile le bon mot-clé.
pour un lien externe pointant vers la page d'accueil, le texte doit être le nom du site (ou la marque) dans l'immense majorité des cas, et pas des mots-clés.

Répondre
DAVID

D'ailleurs on ne sait pas non plus si le nettoyage a été de faire un fichier disavow ou de faire modifier les backlinks sur les sites, ce qui à mon avis est traité différemment par les algos google, l'un recalcule peut être X fois dans l'année, l'autre en temps réel ? logiquement un nettoyage de liens sur les sites devrait donner plus de résultats qu'un fichier disavow

Répondre
DAVID

Olivier, FRED lorsque je suis passé vers https je n'ai pas remis la totalité du disavow sur https pour voir ce que ça donnerait (je l'ai néanmoins laissé sur http), et vers le 7-9 mars effectivement j'ai perdu 60% de visibilité sur google, ce qu'on nomme FRED est peut-être un recomptage total de tous les backlinks, et Pingouin ce qu'il fait en temps réel c'est peut-être pénaliser ou pas dès qu'un nouveau lien se présente, seulement j'évoque des possibilités, car on ne sait pas dans le graph de Marie Haynes à quel moment elle a fait son nettoyage d'urls...

Répondre
DAVID

Le graphique de Marie Haynes prouve que les algos de google ne sont pas en temps réel, il existe déjà un algo pour backlinks artificiels, donc...

Répondre
Olivier Duffez

@David : Fred n'est pas uniquement basé sur les backlinks, mais nous sommes plusieurs à penser qu'ils jouent un rôle majeur. Ce n'est donc pas si étonnant que ça de voir remonter le jour de l'update Fred un site qui avait été pénalisé sur ces critères et qui les avait corrigés.
Mais c'est vrai qu'on peut se demander à quel point les algos type Pingouin sont vraiment en temps réel... Aucune transparence réelle de la part de Google à ce sujet !

Répondre
djameldine

Bonjour à toutes et à tous, pour ma part j'ai chuté. Passant de 5900 impressions/ jour à 1300... j'ai aussi perdu l'extrait enrichi, un superbe encadré qui venait en tete des résultats. Concernant les backlinks je n'ai pas fais d'audit encore. Il faut vite que je récupère mon positionnement initial. Si vous pouviez me conseiller, merci.

Répondre
vandegans vincent

grosse chute sur un MS suite à 1 backlink sidewide acheté avec ancre théma. On parle d'un seul backlink ici, sur un total de 150... -70% de trafic immédiatement après FRED.

Exactement comment tu le décris, perte de confiance.
Je crois de plus en plus qu'il faut analyser ce qui donnerait confiance à un client/visiteur et Google pensera la même chose : HTTPS, éléments de réassurance, contenu précis (pas nécessairement de qualité mais répondant à la requête), backlink de source fiables.

La lecture de google guidelines pour les quality raters est une mine d'or, surtout les screenshots et l'explication de leur analyse.

Répondre
Olivier Duffez

Merci pour le partage d'expérience Vincent. Ton cas semble assez violent et surtout, il refait penser au negative SEO. Car même si ce n'est pas ton cas, à te lire ça fait peur ! Ou alors c'est que le reste des backlinks est "qualité" insuffisante.

Répondre
Steve

Pour ma part c'est très positif depuis plus de 2 mois mon trafic augmente quasiment tous les jours alors que je n'ai pas écrit de nouvel article depuis au moins un an sur mon blog. Par contre je suis très actifs sur les commentaires d'articles, je répond sans optimisation SEO, sans placement de mots clés particuliers.

Mon trafic a ainsi doublé en 2 mois ;-)

Répondre
Olivier Duffez

Cool Steve ! Ton trafic augmente peut-être depuis la mise à jour de février, a priori plus orientée qualité et expérience utilisateur (et pas backlinks).

Répondre
Nicolas Chevallier

Bonjour Olivier,

Merci pour ces retours, très compliqué de s'y retrouver pour le moment.

Répondre
Patrick Huet

Bonjour,
Un autre point à étudier au sujet de la qualité des sites visés par Fred (de Google) : l'usage d'un algorithme basé sur l'Intelligence Artificielle.

Voici déjà un moment que Google (ou Alphabet) y travaille. Ils ont acquis des sociétés ayant mis au point ces logiciels et effectuent de tests de toute nature.

Peut-être est-ce là un de leurs développements.

Répondre
Olivier Duffez

Oui Patrick, mais une large partie des algos de Google utilisent déjà l'IA (Panda et Pingouin en sont remplis je pense)

Répondre
AlexLB

Merci pour l'article, ce nouvel algo méritait vraiment des éclaircissements.
Pour ma part j'ai eu un site qui a été fortement dévalué depuis cette mise à jour sans nécessairement que les visites chutes heureusement.
Mon site était en 1er position depuis des années sur un mot clé principal, il est passé en 2e position le 17/03.
La grande claque, ce sont des mots clés travaillés pendant des mois positionnés en top de 2e page, et là.. bim redescente aux enfers dans les limbes après la 8e page voire 120e position pour d'autres mots clés.
Il peut s'agir en effet de backlinks qui n'ont pas suffisamment de qualité pour donner confiance à Google. Je travaille beaucoup avec les annuaires, il fallait bien qu'un jour Google dise non aux liens provenant de "site pauvre" ou sur-optimisé, il faut avouer dans la pratique que ça n'a aucun intérêt pour le site si ce n'est de gonfler artificiellement sa présence un peu partout sur le net... Retour à la case départ, j'ai effectué un audit RM Tech pour les liens inutiles sur le site et un audit à la main pour trouver les liens nocifs à désavouer, c'est un travail fastidieux.
Bon courage à ceux qui sont impactés !

Répondre
Fred Bescond

Salut Olivier et merci pour ton article qui confirme mes impressions. En tant que modeste pro du SEO, je me surprenais de lire que cette mise à jour était axée uniquement sur les BL et la pub. De mon côté, je pouvais constater que ça bougeait même si on était concerné pas aucun des 2 cas. Une fois de plus, on en revient toujours au fondamentaux: qualité du contenu, qualité des BL... C'est long, c'est lent mais l'assurance de dormir (plutôt) tranquille ! :)

Répondre