Annonces Google

Vous êtes ici : Dossiers référencement > Conseils en référencement naturel

Update Fred de Google (enfin officielle) : infos et conseils

Par , le 03 avril 2017

Que s'est il donc passé chez Google vers le 8 mars 2017 ? Un changement d'algo important c'est certain ! Suite à une blague sur Twitter, il a été appelé Fred. Voici mes trouvailles sur Fred v1...

Article mis à jour le 03/04/2017 (détails par Gary Illyes de Google), publié initialement le 20/03/0217

La sortie non officielle de l'update Fred, finalement officialisée !

On a commencé à en entendre parler le 8 mars 2017  ici même sur le forum WebRankInfo, avant même le veilleur SEO le plus attentif, à savoir Barry Schwartz qui a publié son 1er article ensuite. C'est lui qui a popularisé ce nom "Fred" après une discussion avec Gary Illyes (de Google). J'utiliserai donc ce nom dans le reste de l'article (c'est pas plus ridicule que Panda, Pingouin ou Pigeon).

A ce moment-là, les premiers sites touchés (impact négatif) semblaient surtout ceux gérés par des black hat, c'est-à-dire utilisant des méthodes contraires aux consignes de Google. Voyez par exemple cette discussion sur BlackHatWorld.

On a donc logiquement pensé que la mise à jour Fred était basée essentiellement sur les backlinks, puisqu'il s'agit encore des moyens les plus efficaces (en tout cas à court terme) pour booster un site dans Google.

Puis, d'autres témoignages sont arrivés, au fur et à mesure que d'autres sites ont été concernés. Comme je l'explique dans le reste de cet article, il est possible que le déploiement de Fred ce soit fait en plusieurs phases.

On a eu beau demander à Google une confirmation de cette mise à jour, on a eu droit au désormais traditionnel "Oui tout à fait, il s'est passé quelque chose ce jour-là, d'ailleurs il y a au moins 2 updates chaque jour :-)".

Comme d'autres fois, après 1 ou 2 semaines de pression, les "porte-parole" de Google ont fini par confirmer qu'il y a bien eu une mise à jour. D'abord Gary Illyes sur Twitter :

puis John Mueller dans un hangout vidéo :

Si l'on en croit John, il s'agit d'une mise à jour concernant l'évaluation globale de la qualité du site, ce qui colle à peu près à mon avis perso détaillé dans le reste de cet article.

Edit du 03/04/2017 : Gary Illyes a précisé qu'il y a eu plusieurs mises à jour autour des dates correspondant à ce qu'on appelle "Fred Update". Voici son tweet :

Dit autrement : il y a eu plusieurs mises à jour correspondant à des critères différents, à quelques jours d'intervalle. Pour moi cela colle bien avec l'idée qu'il y a effectivement eu une mise à jour de l'évaluation des backlinks (pour sanctionner ceux qui en ont trop d'artificiels) ET des mises à jour sur la qualité (similaires à celles de Panda et Phantom).

Update Fred

Update Fred de Google (mars 2017)

Mon avis sur l'update Fred

Ayant accès à pas mal de sites (clients consulting, clients de ma plateforme SEO, contacts en tous genres via WebRankInfo), j'ai comme toujours pour les gros "updates" fait ma petite enquête.

Je vais vous donner toutes les infos que j'ai pu trouver, et même si ça ne vaut pas grand chose, j'espère que ça pourra vous aider. Dans ce cas, merci de partager cet article !

Comme pour toute mise à jour (brutale) d'algo de Google, j'ai fait un certain nombre d'analyses avec mes outils dont évidemment Google Analytics, Google Search Console et l'analyse du positionnement. Il s'agit ici d'abord d'établir s'il y a eu un impact (positif ou négatif). Dans le reste de l'article, j'utiliserai le terme "pénalisé" pour parler d'un site dont le trafic a chuté avec Fred, même si on ne devrait parler de pénalité que pour les actions manuelles.

Ensuite, surtout pour les sites impactés négativement par Fred, j'ai creusé.

Logiquement, j'ai commencé par auditer leurs backlinks, à la recherche de stratégies de netlinking risquées.

J'ai aussi évalué l'optimisation SEO globale de chaque site en lançant un audit RM Tech pour chacun. Même si tout le monde ne parlait que de backlinks, j'ai souhaité évaluer la qualité des pages concernées. Pour ça, l'algo maison QualityRisk de ma plateforme My Ranking Metrics me fait gagner un temps fou (d'ailleurs, je ne vois pas avec quel autre outil je pourrais ainsi repérer des pages suspectes parmi les milliers de ces sites web).

Enfin, sur les pages les plus concernées par la mise à jour, j'ai fait une analyse humaine.

Voici donc mes conclusions à l'heure où je publie cet article (cliquez pour partager sur Twitter)...

La 1ère cause de pénalité est l'abus de backlinks artificiels, c'est-à-dire ne respectant par les consignes de Google. Comme très souvent, c'est surtout une trop forte dose d'ancres exactes qui fait chuter (texte du lien = uniquement des mots-clés).

Un point très important à mon avis : les liens en cause peuvent être très anciens, au moins plusieurs années. C'est comme si Fred incluait une partie de Penguin (algo contre la suroptimisation SEO et particulièrement les backlinks), mais avec une évaluation différente. Je rappelle que Penguin est censé être inclus dans l'algo global de Google, et mis à jour en continu.

Marie Haynes a montré un exemple de site qui a remonté en flèche avec Fred, alors qu'il avait lourdement chuté en 2014 à cause des backlinks artificiels. Un gros travail de nettoyage avait été fait et c'est avec Fred qu'il a porté du fruit. C'est un indice de plus que la suppression ou le désaveu des liens toxiques peut effectivement aider à faire remonter un site.

Voilà son tweet :

J'ai lu que certains pensent qu'ensuite le site est pénalisé sur les requêtes concernées par ces backlinks artificiels, mais sur l'ensemble du site, pas seulement la page de destination. Voilà un exemple :

Ce n'est pas tout à fait mon avis, mais c'est quasi impossible de le savoir de façon très précise.

En fait, et c'est un autre élément majeur de Fred selon moi, l'algo cherche à évaluer si l'on peut encore faire confiance au site. Si Google repère un trop gros nombre de liens "toxiques", la confiance accordée au site chute d'un coup.

La conséquence est que le site perd des positionnements sur des requêtes pour lesquelles il était 1er depuis très longtemps, avec des pages 100% clean, y compris sans aucun backlink. La chute est bien moins forte que pour les pages recevant les BL artificiels (j'ai vu du -60% de trafic !) mais elle peut atteindre 10%, pile le même jour.

D'ailleurs, à part repérer ces chutes pour des pages n'ayant absolument rien à se reprocher, un autre indice m'a amené à cette conclusion sur cette "perte de confiance".

En effet, j'ai remarqué qu'un site pénalisé avec Fred perdait souvent l'affichage des étoiles dans les pages de résultats Google (on appelle ça les rich snippets liés aux avis). Vous le savez sans doute, pour bénéficier de cet "extrait enrichi", il faut non seulement respecter à la lettre les spécifications techniques mais aussi être sélectionné par l'algo.

Dans Search Console, vous pouvez obtenir le nombre de clics ou impressions dans les SERP de vos pages ayant un extrait enrichi. Voici ce que ça donne pour un site étudié :

Perte rich snippets update Fred

Pour Google, ce site ne mérite donc plus cet affichage, même si les pages contiennent toujours le code requis. Il va devoir "revenir dans les clous" et prouver que Google peut encore "lui faire confiance"... Il s'agit de pages clean (j'ai vérifié, tous les liens sont OK et le contenu est de qualité) d'un site ayant par ailleurs des pages avec BL artificiels.

Autre sujet, la pub. La relation de Google avec la pub est vraiment "Je t'aime moi non plus", ne trouvez-vous pas ? C'est ce qui enrichit tant Google, mais qui peut aussi plomber ceux qui en abusent sur leur site. Pas Google, qui sur ce coup est plutôt "Faites ce que je dis mais (surtout) pas ce que je fais."...

Pas mal de sites pénalisés par Fred avaient un peu trop de pub, certes. Mais d'une part j'ai trouvé des sites sans aucune pub pénalisés et d'autre part la plupart des cas étudiés n'affichaient pas de publicité de façon excessive.

Peut-être qu'il faut la voir comme un élément qui dégrade la qualité perçue des pages, un critère parmi d'autres. Et que pour certains sites, c'est un mauvais point supplémentaire qu'il aurait fallu éviter ?

A part les mauvais liens et la pub, je vous avoue avoir du mal à distinguer ce qui déplait à Fred. En tout cas, ce qui le différencie des autres algos de Google.

Au fait, connaissez-vous les principaux ? Le top 10 des algos de Google

Je suis globalement assez d'accord avec Jennifer Slegg qui pense que Fred est une sorte de nouvelle méthode d'évaluation de la qualité d'un site, prenant en compte aussi bien les aspects internes (comme Panda et Phantom) qu'externes (comme Penguin).

Le problème que vous aurez après avoir lu son article, en tout cas c'était mon sentiment, c'est "je ne suis pas vraiment avancé"...

Que faire concrètement ?

Maintenant que le temps a passé, il est temps de décider quoi faire pour remonter, n'est-ce pas ?

A votre place, voici les 2 premières actions que je ferais, dans l'ordre :

1- un audit vraiment exhaustif de vos backlinks, incluant même les plus anciens (ceux que vous n'aviez pas désavoués, pensant être passé "entre les mailles du filet"). Concentrez-vous sur ceux pointant vers les pages ayant très fortement chuté. Les backlinks indéniablement "artificiels" doivent être supprimés (je sais, c'est quasi impossible) ou désavoués (même si ça vous fait mal, avez-vous vraiment d'autres solutions ?).

Si vous ne savez pas comment faire, demandez-moi un devis

Evidemment, si par miracle vous pouvez obtenir des bons liens pour compenser, c'est encore mieux !

2- un audit de qualité de l'ensemble de votre site, en commençant là aussi par les pages ayant le plus chuté. Demandez-vous si la page est construite pour apporter une réponse à l'internaute qui débarque dessus depuis Google. Tout ce qui peut jouer en défaveur de sa satisfaction doit être corrigé (abus de publicité, contenu trop faible, temps de chargement trop long, incompatibilité mobile, inexactitudes dans les informations fournies, etc.).

Si vous avez un petit site ça devrait être rapide, mais dans le cas inverse c'est une autre paire de manches... Bon courage !

Pour un 1er repérage des pages de mauvaise qualité, regardez leur QualityRisk

Les autres avis

Juan Gonzalez de l'outil Sistrix a étudié 300 sites dont l'indice de visibilité dans Google (selon son outil) a chuté après le 13 mars. Il donne ici des exemples de sites pour l'Allemagne, l'Espagne, le UK et les USA. Voici son résumé :

Nearly all losers were very advertisement heavy, especially banner ads, many of which were AdSense campaigns. Another thing that we often noticed was that those sites offered little or poor quality content, which had no value for the reader. It seem that many, but not all, websites are affected who tried to grab a large number of visitors from Google with low quality content, which they then tried to quickly and easily monetize through affiliate programs.

Ce qui signifie :

Presque tous les perdants contenaient beaucoup de publicités, surtout des bannières, AdSense pour la plupart. Nous avons également remarqué que ces sites offraient peu de contenus de qualité, ou des contenus pauvres sans valeur ajoutée pour le lecteur. Il semble que beaucoup des sites pénalisés (mais pas tous) tentaient de récupérer le plus de trafic possible depuis Google avec du contenu de faible qualité, pour ensuite essayer de le monétiser rapidement par de l'affiliation.

Certains sites avaient pu croître très rapidement avant de s'effondrer avec cet update. C'est le cas par exemple d'un site qui se contente d'afficher sur chaque page le code postal d'une ville, noyé sous la pub :

Page avec trop de pub

Cette page a bien trop de pub et presque aucun contenu, ce que l'update Fred semble chercher à pénaliser.

Voici sa conclusion :

Through those nearly 300 domains it became very apparent that many pages had a lot of advertisement, outdated, thin and scraped content, as well as incomprehensible articles made up of 300 word “SEO texts” pumped to the brim with main keyword mentions and void of any useful information or a sense of readability.

Ce qui signifie :

Sur ces 300 sites, cela saute aux yeux que beaucoup avaient des pages avec trop de publicités et un contenu pas à jour, superficiel ou "pompé ailleurs" (scraped), ou bien des articles incompréhensibles de 300 mots de "textes SEO" pompés de partout avec des répétitions du mot-clé principal et vides de toute information utile ou de bonne lisibilité.

Et vous ?

Dites-moi dans les commentaires ou par email ce que l'update Fred a donné pour vous.

Votre avis sur mes hypothèses et votre retour d'expérience peut en intéresser plus d'un, alors n'hésitez pas !

Cet article vous a-t-il plu ?
Note : 4.2 (29 votes)
Cliquez pour voter !

A propos de l'auteur : Olivier Duffez Olivier Duffez sur Google+ Olivier Duffez sur Twitter Olivier Duffez sur Facebook Olivier Duffez sur Pinterest Olivier Duffez sur LinkedIn

Consultant en référencement, Olivier Duffez a travaillé pour les plus grands sites (Doctissimo, FNAC,...). Il édite le site WebRankInfo qu'il a créé en 2002, devenu la + grande communauté francophone sur le SEO (+300.000 membres, 1,5 million de posts). Il est aussi cofondateur de Ranking Metrics, leader des formations webmarketing en France (SEO, AdWords, Analytics, réseaux sociaux) et éditrice de la plateforme MyRankingMetrics (crawler et audit SEO en ligne).

Article (Update Fred de Google : infos et conseils WebRankInfo) publié par WebRankInfo dans la rubrique Conseils en référencement naturel. Si vous souhaitez publier un extrait de cet article sur votre site, assurez-vous de respecter les conditions générales d'utilisation de WebRankInfo.

21 commentaires

  • Fred Bescond a dit le

    Salut Olivier et merci pour ton article qui confirme mes impressions. En tant que modeste pro du SEO, je me surprenais de lire que cette mise à jour était axée uniquement sur les BL et la pub. De mon côté, je pouvais constater que ça bougeait même si on était concerné pas aucun des 2 cas. Une fois de plus, on en revient toujours au fondamentaux: qualité du contenu, qualité des BL... C'est long, c'est lent mais l'assurance de dormir (plutôt) tranquille ! :)

  • AlexLB a dit le

    Merci pour l'article, ce nouvel algo méritait vraiment des éclaircissements.
    Pour ma part j'ai eu un site qui a été fortement dévalué depuis cette mise à jour sans nécessairement que les visites chutes heureusement.
    Mon site était en 1er position depuis des années sur un mot clé principal, il est passé en 2e position le 17/03.
    La grande claque, ce sont des mots clés travaillés pendant des mois positionnés en top de 2e page, et là.. bim redescente aux enfers dans les limbes après la 8e page voire 120e position pour d'autres mots clés.
    Il peut s'agir en effet de backlinks qui n'ont pas suffisamment de qualité pour donner confiance à Google. Je travaille beaucoup avec les annuaires, il fallait bien qu'un jour Google dise non aux liens provenant de "site pauvre" ou sur-optimisé, il faut avouer dans la pratique que ça n'a aucun intérêt pour le site si ce n'est de gonfler artificiellement sa présence un peu partout sur le net... Retour à la case départ, j'ai effectué un audit RM Tech pour les liens inutiles sur le site et un audit à la main pour trouver les liens nocifs à désavouer, c'est un travail fastidieux.
    Bon courage à ceux qui sont impactés !

  • Patrick Huet a dit le

    Bonjour,
    Un autre point à étudier au sujet de la qualité des sites visés par Fred (de Google) : l'usage d'un algorithme basé sur l'Intelligence Artificielle.

    Voici déjà un moment que Google (ou Alphabet) y travaille. Ils ont acquis des sociétés ayant mis au point ces logiciels et effectuent de tests de toute nature.

    Peut-être est-ce là un de leurs développements.

  • Olivier Duffez a dit le

    Oui Patrick, mais une large partie des algos de Google utilisent déjà l'IA (Panda et Pingouin en sont remplis je pense)

  • Nicolas Chevallier a dit le

    Bonjour Olivier,

    Merci pour ces retours, très compliqué de s'y retrouver pour le moment.

  • Steve a dit le

    Pour ma part c'est très positif depuis plus de 2 mois mon trafic augmente quasiment tous les jours alors que je n'ai pas écrit de nouvel article depuis au moins un an sur mon blog. Par contre je suis très actifs sur les commentaires d'articles, je répond sans optimisation SEO, sans placement de mots clés particuliers.

    Mon trafic a ainsi doublé en 2 mois ;-)

  • Olivier Duffez a dit le

    Cool Steve ! Ton trafic augmente peut-être depuis la mise à jour de février, a priori plus orientée qualité et expérience utilisateur (et pas backlinks).

  • vandegans vincent a dit le

    grosse chute sur un MS suite à 1 backlink sidewide acheté avec ancre théma. On parle d'un seul backlink ici, sur un total de 150... -70% de trafic immédiatement après FRED.

    Exactement comment tu le décris, perte de confiance.
    Je crois de plus en plus qu'il faut analyser ce qui donnerait confiance à un client/visiteur et Google pensera la même chose : HTTPS, éléments de réassurance, contenu précis (pas nécessairement de qualité mais répondant à la requête), backlink de source fiables.

    La lecture de google guidelines pour les quality raters est une mine d'or, surtout les screenshots et l'explication de leur analyse.

  • Olivier Duffez a dit le

    Merci pour le partage d'expérience Vincent. Ton cas semble assez violent et surtout, il refait penser au negative SEO. Car même si ce n'est pas ton cas, à te lire ça fait peur ! Ou alors c'est que le reste des backlinks est "qualité" insuffisante.

  • djameldine a dit le

    Bonjour à toutes et à tous, pour ma part j'ai chuté. Passant de 5900 impressions/ jour à 1300... j'ai aussi perdu l'extrait enrichi, un superbe encadré qui venait en tete des résultats. Concernant les backlinks je n'ai pas fais d'audit encore. Il faut vite que je récupère mon positionnement initial. Si vous pouviez me conseiller, merci.

  • DAVID a dit le

    Le graphique de Marie Haynes prouve que les algos de google ne sont pas en temps réel, il existe déjà un algo pour backlinks artificiels, donc...

  • Olivier Duffez a dit le

    @David : Fred n'est pas uniquement basé sur les backlinks, mais nous sommes plusieurs à penser qu'ils jouent un rôle majeur. Ce n'est donc pas si étonnant que ça de voir remonter le jour de l'update Fred un site qui avait été pénalisé sur ces critères et qui les avait corrigés.
    Mais c'est vrai qu'on peut se demander à quel point les algos type Pingouin sont vraiment en temps réel... Aucune transparence réelle de la part de Google à ce sujet !

  • DAVID a dit le

    Olivier, FRED lorsque je suis passé vers https je n'ai pas remis la totalité du disavow sur https pour voir ce que ça donnerait (je l'ai néanmoins laissé sur http), et vers le 7-9 mars effectivement j'ai perdu 60% de visibilité sur google, ce qu'on nomme FRED est peut-être un recomptage total de tous les backlinks, et Pingouin ce qu'il fait en temps réel c'est peut-être pénaliser ou pas dès qu'un nouveau lien se présente, seulement j'évoque des possibilités, car on ne sait pas dans le graph de Marie Haynes à quel moment elle a fait son nettoyage d'urls...

  • DAVID a dit le

    D'ailleurs on ne sait pas non plus si le nettoyage a été de faire un fichier disavow ou de faire modifier les backlinks sur les sites, ce qui à mon avis est traité différemment par les algos google, l'un recalcule peut être X fois dans l'année, l'autre en temps réel ? logiquement un nettoyage de liens sur les sites devrait donner plus de résultats qu'un fichier disavow

  • Alex a dit le

    Bonjour

    Quand vous parlez de backlinks avec trop de mots cles, je ne comprends pas. Imaginons pour un article j'ai comme mot clé "nez rouge".

    Il faut éviter que les backlinks vers cet article soient ancrés sur "nez rouge" ... C'est ça?

    Pour autant nez rouge" serait la meilleure ancre pour le lecteur.

    Merci de vos réponses bonne journée

  • Olivier Duffez a dit le

    pour un lien interne, il y a peu de problèmes à appeler ça "nez rouge" en effet
    pour un lien venant de l'extérieur, c'est peu gênant si la page de destination est une page interne. Encore que ça doit pas être si fréquent que ça d'avoir pile le bon mot-clé.
    pour un lien externe pointant vers la page d'accueil, le texte doit être le nom du site (ou la marque) dans l'immense majorité des cas, et pas des mots-clés.

  • Alex a dit le

    Ah OK c'est donc plutôt si le site parle de chaises et que tous les backlinks ont pour mot clé chaise?

    Merci !

  • Olivier Duffez a dit le

    il faut surtout raisonner page par page et faire une nette différence pour la page d'accueil

  • Franky a dit le

    Bonjour Olivier,

    Merci pour cet article très enrichissant. Un point reste pour moi obscur : tu traites dans ton article massivement de backlinks artificiels et de leurs effets "plombant" l'indice de confiance pour le site concerné.
    Si j'ai bien compris, c'est ce que tu as pu constater lors de tes tests mais tu ne parles pas ou très peu du contenu de faible qualité au niveau interne (low value content) évoqué par Barry Schwartz ici => https://www.seroundtable.com/google-confirm-fred-algorithm-update-23603.html ou évoqué récemment par John Mueller lors du Hangout ("improve the quality of the website").

    Néanmoins tu cites Juan Gonzalez qui fait part explicitement de cet aspect de Fred et même sans forcément avoir de publicité / bannières sur le site concerné.

    Je voulais donc avoir ton avis sur ce point : penses-tu que Fred arrive mieux à cerner le contenu de faible qualité (ou sur-optimisé) que Panda et Pingouin respectivement ?

    Merci pour ton retour sur ce point.

    Franky

  • Olivier Duffez a dit le

    moi aussi je pense que plusieurs critères d'évaluation de la qualité sont combinés avec Fred, une sorte de best of des algos Panda + Phantom + Penguin et peut-être aussi d'autres du style "trop de pub" ou "pages trop lentes"...

  • EvoFred a dit le

    Merci pour cet article clair et complet. Et joli nom pour cet update ;-)

Postez un commentaire !

Les champs marqués du signe * sont obligatoires. L'adresse email ne sera pas affichée.

En postant un commentaire, vous acceptez les CGU du site WebRankInfo.

Catégories des dossiers

Consultez les dossiers par thématiques :

Annonces Google

Formation référencement et webmarketing

Venez chez Ranking Metrics vous former au référencement, à Google AdWords et Analytics ainsi qu'aux réseaux sociaux ! Plus de 4000 entreprises sont déjà venues (Dossier possible OPCA...).

Préparés et animés par Olivier Duffez (WebRankInfo) et Fabien Faceries (AgentWebRanking), 2 professionnels reconnus dans le domaine, nos modules sur le référencement naturel sont très complets tout en laissant une grande place à l'interactivité pour répondre à toutes les questions des participants.

Pour connaître le plan détaillé de chaque module, le prix, les dates et les lieux, consultez le site de Ranking Metrics (organisme de formation).

Hébergement web

Hébergement web mutualisé et dédié

Pour un bon référencement, il faut un bon hébergeur. Testez Sivit by Nerim, l'hébergeur choisi par Olivier Duffez pour son site WebRankInfo.

A partir de 3€ HT/mois.

Annonces Google


381 Partages