Mise à jour Google Mars 2019 Core Update [officiel]

Olivier Duffez (admin)
Membre du personnel
Google a confirmé sur Twitter avoir procédé à une mise à jour de son algorithme ("broad core algorithm update") comme ils le font plusieurs fois par an. Il s'agit dans ces cas d'une mise à jour (bien) plus importante que les centaines de petits détails qui sont modifiés au fil des semaines.

Voici une traduction de leur message :
Cette semaine, nous avons publié une vaste mise à jour de l'algorithme de base, comme nous le faisons plusieurs fois par an. Nos conseils au sujet de ces mises à jour demeurent les mêmes que ceux que nous avons décrits précédemment. S'il vous plaît voyez ces tweets pour plus d'informations à ce sujet.

Des SEO avaient remarqué hier des signes, comme on peut le lire ici.

Le nom choisi par les SEO pour cet update est "Florida 2". C'est idiot comme nom, mais c'est comme ça... C'est en référence à un événement SEO qui venait de se terminer et qui avait lieu en Floride, comme ce fut le cas il y a bien longtemps pour l'update Florida 1.
Ensuite, Google a proposé d'éviter de donner ce genre de noms, sans relation avec l'update, si bien que le nom final est Google Core Update March 2019...

Difficile de dire pour l'instant si c'est une mise à jour comparable à celle appelée "Medic" en août 2018, ou à celles qui ont suivi ensuite notamment fin septembre 2018.

EDIT du 10/04/2019 à 11h49 :

J'ai trouvé sympa l'article de Eric Lancheres à propos de cette mise à jour, voici donc quelques uns de ses commentaires ou conseils (ce sont les siens, pas les miens, j'ai juste ajouté quelques liens et commentaires) :

La mise à jour de mars 2019 de Google :
  • est une mise à jour à l'échelle du site qui affecte toutes les pages d'un domaine
  • n'affecte pas l'interprétation des mots sur une page
  • accorde la priorité à l'expérience utilisateur plutôt qu'à la sur-optimisation. Les sites qui offrent une bonne expérience utilisateur ont connu une augmentation du trafic malgré certains problèmes à la page.
  • Une publicité excessive qui mène à une mauvaise expérience utilisateur est l'une des principales raisons pour lesquelles les sites ont perdu du trafic.
  • cible les sites qui offrent une mauvaise expérience utilisateur en raison de la lourdeur des éléments de la page (mauvaise navigation, pop-ups excessifs, etc.).
  • a eu un impact négatif sur les pages excessivement commerciales qui se font passer pour des pages d'information.
  • cible les sites dont le contenu est de faible qualité.
  • Les sites qui offrent une bonne expérience utilisateur ont vu des améliorations dans les classements en dépit des problèmes persistants de cannibalisation des mots-clés.
  • ne semble pas pénaliser les sites à cause des liens.
Concernant les backlinks :
  • La puissance de netlinking requise pour le classement est restée la même tandis que la quantité de backlinks diminuait.
  • Les liens gouvernementaux ont tendance à devenir des propriétés de confiance.
Autres remarques :
  • Bien que la mise à jour de base de mars repose toujours sur des mots-clés, LSI et des synonymes pour classer les pages, le terme correspondant exact est trouvé moins souvent qu'auparavant.
  • Les sites ayant une intention commerciale élevée sont légèrement moins performants pour les requêtes commerciales après la mise à jour de base de mars 2019.
  • Les sites à chargement rapide sont plus importants après la mise à jour de mars 2019. C'est probablement parce que des pages plus rapides mènent à une meilleure expérience utilisateur.
Comment retrouver son trafic ?
La procédure qui a fonctionné dans le passé pour récupérer les mises à jour "Core Update" est la suivante :
  1. Identifiez les pages au faible contenu, dupliquées et cassées qui gaspillent les ressources de Google, ce qui conduit finalement à une mauvaise expérience utilisateur.
  2. Améliorez, fusionnez ou supprimez les pages problématiques qui entravent la performance globale du site. (Note d'Olivier : ça correspond à ma méthode zombies)
  3. Identifiez les éléments répétés dans la plupart des pages qui peuvent contribuer à une mauvaise expérience utilisateur et faire rebondir les utilisateurs vers Google / quitter le site prématurément. (Il peut s'agir d'annonces excessives, d'une mauvaise navigation, d'un chargement lent des pages Web, etc.)
  4. Faites des tests d'optimisation fractionnés sur la page afin d'améliorer l'engagement des utilisateurs. (Augmenter le temps passé sur la page, le temps passé sur le site, le nombre de pages vues, réduire le taux de rebond, etc).
  5. Identifiez les contenus périmés qui ne sont plus utiles aux utilisateurs. (Note d'Olivier : encore similaire à mon approche zombies, ou bien aux pages inactives sur une longue période)
  6. Mettez à jour les contenus obsolètes ou supprimez-les. Attention à ne pas supprimer les pages contenant des backlinks.
  7. Effectuez une analyse à l'échelle du site des balises titre et des métadescriptions du site. Corrigez les balises de titre périmées qui pourraient contribuer à réduire le taux de clics (par exemple, les balises de titre qui contiennent une ancienne date).
  8. Effectuez une analyse complète des liens entrants (backlinks), en recherchant en particulier les liens à l'échelle du site qui auraient pu être utiles auparavant. Concentrez-vous sur l'augmentation de la puissance des pages tout en minimisant la quantité de liens. (Obtenez moins de backlinks, mais plus puissants, à partir de sources d'autorité.)

J'espère que ça en aidera un certain nombre parmi vous !
 
Dernière édition:
WRInaute discret
Je suis surpris qu'il n'y ait pas plus de réponses dans ce fil ? Du peu que j'en ai vu, la mise à jour à l'air vraiment (très) conséquente.

J'ai quelques sites touchés (en bien, avec un site à +80% et en moins bien, certains sites à -50%). Je remarque beaucoup de mouvement dans la niche santé encore mais toutes les niches me semble impactées.

J'ai également beaucoup de connaissances seo TRES fortement impactées (en pas bien) par cette maj.

Bref j'ai l'impression que c'est un peu l'écatombe est que la maj me semble au moins aussi importante que celle du 1er août.
 
WRInaute occasionnel
Aucun changement de trafic (cf GA/GSC) sur mes 2 sites (50 pages & 2000 pages).
Pas de changement non plus sur la position des KW analysés.
 
Olivier Duffez (admin)
Membre du personnel
L'impact semble vraiment très variable selon les secteurs. Je vois moi aussi des grosses variations (notamment dans la santé), des petites pour certains ecommerce, et rien du tout dans d'autres.
 
Nouveau WRInaute
Pour ma part, depuis hier j'ai un traffic qui a pris 80%, j'attends quelques jours de voir ce qu'il s'est passé sur la search console.

Mon site avait été très impacté en négatif par la maj de fin septembre, donc je suis content que les efforts depuis aient l'air d'avoir payé.
 
Olivier Duffez (admin)
Membre du personnel
de ce que j'ai pu voir en audits de sites touchés par Medic, fin septembre 2018 ou ce "Florida 2" (son nom), à mon humble avis ça n'a pas de rapport avec les backlinks, en tout cas ceux que tu évoques avec le negative SEO. S'il y a un impact, ça doit être uniquement sur l'évaluation de l'autorité du site, mais encore j'ai l'impression que ça ne joue pas tant que ça.
 
Nouveau WRInaute
Pour ma part 30% de traffic en plus depuis hier, sachant que j'ai perdu 60% du trafic avec la màj de septembre.

J'ai l'impression que c'est un correctif de septembre... Le seul truc dont je suis certain avec la màj de septembre, c'est que nous avons été 4 sites de la même thématique à avoir subi une grande attaque de négative SEO peu avant septembre (à partir de juin 2018), des milliers de backlinks en dofollow sur des sites suédois et coréens.

Nous avons désavoué depuis, donc mystère.
Pour ma part j'ai également supprimé de nombreuses pages inactives suite à des audits rmtech et amélioré légèrement la vitesse du site bien que celle-ci était tout à fait honorable avant septembre.

Je ne suis pas expert seo mais ça ressemble à une baisse de la prise en compte des backlinks, qu'ils soient positifs ou négatifs, en somme le poids global des backlinks dans l'algorithme Google.
 
Nouveau WRInaute
de ce que j'ai pu voir en audits de sites touchés par Medic, fin septembre 2018 ou ce "Florida 2" (son nom), à mon humble avis ça n'a pas de rapport avec les backlinks, en tout cas ceux que tu évoques avec le negative SEO. S'il y a un impact, ça doit être uniquement sur l'évaluation de l'autorité du site, mais encore j'ai l'impression que ça ne joue pas tant que ça.
Merci Olivier d'avoir supprimé mon premier post (j'avais involontairement posté avec mon compte contenant mon nom de domaine). L'attaque négative SEO concernait aussi le leader français et européen de ma thématique et 2 autres sites que le mien dans le top 10, ce qui me faisait penser à ces backlinks toxiques bien que ces sites aient une autorité reconnue.
 
WRInaute discret
Juste avant l’update du 12 Mars, pendant 1 semaine avant il y avait beaucoup de yoyo. J’ai un site qui passait de la 3-4éme page jusqu’à la 12-13éme position (tout en haut de la 2éme page) et depuis le 13 Mars c’est le point mort pour la première de l’année car le site est actuellement en 10éme page. Donc ici tout concerne google.fr.
Ensuite ce même site est aussi première page sur google.ca (avec &hl=fr&gl=CA à la fin de l’url) donc comme d’habitude il n’a pas bougé.
Puis sur google.be (&hl=fr&gl=BE) pareil je n’ai pas bougé, j'suis toujours en première page.

Pourquoi sa bouge sur Google.fr et pas sur Google.ca/be ?!


J’ai trop envie de tester des trucs bizarres (mais je ne sais pas si c’est vraiment bien de faire ça) :

  • Création un nouveau compte Google pour mon utilisation quotidienne, mes recherches, mon surf sur Internet, utilisation de Youtube (j’suis juste un visiteur sur Youtube). Afin de ne pas montrer mes recherches ou les surveillances de mes mots clés qui sont pour la plupart tapés chaque jour dans Google.fr) – Aussi il y a plusieurs mois j’ai filtré/banni mon IP sur Google Analytics mais c’est peut-être pas suffisant ça).
  • Il y a une question que je me pose mais sur Linkody/Ahref il y a un schéma de toutes les adresses IPs (Class C) et sur 96 IPS il y a 23 IPS qui ont tous la même plage IP (ex : 123.125.14.*) et le « * » à la fin c’est un nombre qui change à chaque fois pour chaque backlink. Est-ce que c’est dangereux pour le SEO ?.
  • Il y a aussi un truc que j’ai constaté, c’est le TOP des ancrages des backlinks, la plupart des sites ils ont toujours leur ancre « domaine.com » au top 1 dans le schéma, mais moi pas c’est j’ai eu des problèmes ici , d’ailleurs tous mes sites touchés par le 13 Mars et le 25 Septembre 2018 pourrait être en rapport avec ça car « domaine.com » n’est jamais premier dans le schema "ancrage" de linkody par ex .


Je n’ai plus d’autres idées / Je fais plutôt confiance aux backlinks mais pas aux 3 points que j’ai cité ci-dessus.
Et aussi j’ai l’impression que rien n'est en rapport avec le contenu du site car parfois ça monte très vite et parfois ça descend très vite, le contenu je ne le touche presque pas, ça ne peut pas venir d’ici, et parfois il suffit de toucher à 2 ou 3 backlinks et ça peut monter ou descendre sous 5-7 jours.
 
Dernière édition:
WRInaute accro
Je suis surpris qu'il n'y ait pas plus de réponses dans ce fil ?
Parce que depuis quelques années, les chances de bien se placer sont devenues casi impossible au naturel. Maintenant on ne cesse de subir ses mises à jour.
Il suffit de lire les topics déjà sur ce site, les gens n'ont plus la même ferveur pour le SEO. Ils viennent par intérêt puis repartent. Il n'y a plus de sujets hors SEO. On subit ses incessantes modifications qui resserrent toujours un peu plus le trafic d'un site. Il a réussi à dégoûter les webmasters.
Les réseaux sociaux apportent 50% du trafic d'un site. Les gens l'ont bien compris et passent plus de temps à développer leur comm' sur les RS que d'avoir le nez sur le côté technique pour vouloir plaire à Môsieur Gogole.
C'est du n'importe quoi !

Perso, je n'y prête même plus cas et je ne connais plus les noms de ses filtres tellement y en a !
Je respecte autant que possible les grandes lignes : développer sa comm', optimisation du code et des performances, surveiller le rédactionnel et le reste... pffffff
Je ne fais même plus de backlinks !
Je n'ai pas le temps et ça ne m’intéresse pas.
Mes sites sont 100% BIO ;)
 
WRInaute discret
Les réseaux sociaux apportent 50% du trafic d'un site

Ça dépend clairement des cibles et des marchés.

Le SEO reste hyper intéressant mais c'est vrai que Google réussi de plus en plus à monétiser ses produits et une part grandissante du trafic vient du Paid (Search, Shopping, Display...).

Enfin, tu parles des réseaux sociaux mais là aussi on pourrait ajouter les messageries (quand tu regarde les comportements en Chine par exemple là c'est hyper différent).
 
Nouveau WRInaute
Par ici c'est la bérézina ! Bon nombre de nos magazines ont vu leur trafic SEO divisé par 2, notamment dans la thématique animale, parents, féminine... Seul un site autour de la santé et pénalisé par la médicale update remonte (un peu).
 
WRInaute impliqué
Bonjour Raphaton,

1er post depuis l'inscription en 2013, pas mal !

Peux-tu nous en dire plus sur ces magazines : gros/petit profil de backlinks ? nb de pages ? résistances aux dernières maj ? Monétiser avec de la pub ?

Ca permettra à tous de dégager le profil de cet update.

Merci.

Courage, le deuxième post n'est pas loin ;-)
 
WRInaute discret
De mon côté j'ai des résultats assez étonnants. Je gérais plusieurs sites Santé / e-Commerce dans le top 5 business Français. 2 de ces sites étaient correctement travaillés (backlinks propres avec bon trustrank et coloration Health + Business, contenus optimisé, gestion aux petits oignons des canonicals...) et cleanés (désaveux des rares trucs un peu sales que j'avais fait).

Ces 2 sites ont multiplié par 8 leur visibilité sur les expressions cibles clefs (Source SEM Rush) suite à la Medic update et ont mis tous les concurrents + mes autres sites en forte dégradation. Amazon, CDiscount et de tout petits acteurs inconnus ont eux réussi à prendre le splaces derrière.

Depuis 3 jours j'observe l'effet inverse : les sites les moins travaillés connaissent une progression (+10 % constant) et ceux qui étaient au top se dégradent doucement (-3% par jour).

Profil de sites :
e-Commerce Magento
150 Backlinks Quali pour le splus gros
10 000 pdts
300 categs

Etrange. Je suis sur d'autres sujets aujourd'hui (je lance un outil d'automatisation d'audits SEA) mais effectivement ça semble bouger pas mal.
 
Nouveau WRInaute
Bonjour Raphaton,

1er post depuis l'inscription en 2013, pas mal !

Peux-tu nous en dire plus sur ces magazines : gros/petit profil de backlinks ? nb de pages ? résistances aux dernières maj ? Monétiser avec de la pub ?

Ca permettra à tous de dégager le profil de cet update.

Merci.

Courage, le deuxième post n'est pas loin ;-)

En effet dis donc, 2013 c'était le lancement de ma boite, je m'étais donc un peu intéressé au référencement. En août dernier, deux de nos sites étaient durement pénalisés par la médicale update, il s'agit de docteurtamalou.fr et astucesdegrandmere.net
Le premier remonte légèrement avec cette dernière mise à jour, le second c'est trop tôt pour le dire, mais il semble en légère baisse.

Nous avons principalement 3 sites qui viennent de perdre des positions et plus ou moins 50% de trafic google. Il s'agit d'animalaxy.fr (thématique animale), paradoxalement, l'un de nos autres magazines sur la même thématique est en légère hausse : maviedechat.net Ils sont pourtant construits de la même manière. Ensuite nous avons 100feminin.fr (thématique santé/beauté/mode) et supersparents.fr (thématique famille). Enfin un site sur la thématique culinaire est en surveillance, peut être en baisse aussi. Nos magazines sur les autres thématiques : divertissement, jardinage, bricolage, société ne semblent pas avoir été touchés.

On pourrait donc dire que les thématiques animales et autour de la santé ont à nouveau été visées, mais bizarrement nous en avons dans ces catégories qui montent et d'autres qui descendent, alors qu'ils sont similaires sur le domaine technique et rédactionnel. Les magazines les plus anciens sont les plus pénalisés (Animalaxy, alors que Ma vie de chat monte - Astuces de Grand-Mère, alors que Docteur Tamalou remonte).
 
WRInaute impliqué
Merci du retour @raphaton.

Belle progression de ta société depuis 2013 ! Ca doit faire mal ce genre d'update :-( Comment gérez-vous votre reférencement aujourd'hui (je ne vois que des rédacteurs dans votre équipe) ?

Tu ne dis rien sur les nombre de backlinks de ces sites ? Je pense que cet update en plus du côté "Medic" à corriger l'importance du signal backlinks qui avait été relevé avec l'update de fin septembre... Mais il cache sans doute d'autres correctifs.
 
Nouveau WRInaute
En effet dis donc, 2013 c'était le lancement de ma boite, je m'étais donc un peu intéressé au référencement. En août dernier, deux de nos sites étaient durement pénalisés par la médicale update, il s'agit de docteurtamalou.fr et astucesdegrandmere.net
Le premier remonte légèrement avec cette dernière mise à jour, le second c'est trop tôt pour le dire, mais il semble en légère baisse.

Nous avons principalement 3 sites qui viennent de perdre des positions et plus ou moins 50% de trafic google. Il s'agit d'animalaxy.fr (thématique animale), paradoxalement, l'un de nos autres magazines sur la même thématique est en légère hausse : maviedechat.net Ils sont pourtant construits de la même manière. Ensuite nous avons 100feminin.fr (thématique santé/beauté/mode) et supersparents.fr (thématique famille). Enfin un site sur la thématique culinaire est en surveillance, peut être en baisse aussi. Nos magazines sur les autres thématiques : divertissement, jardinage, bricolage, société ne semblent pas avoir été touchés.

On pourrait donc dire que les thématiques animales et autour de la santé ont à nouveau été visées, mais bizarrement nous en avons dans ces catégories qui montent et d'autres qui descendent, alors qu'ils sont similaires sur le domaine technique et rédactionnel. Les magazines les plus anciens sont les plus pénalisés (Animalaxy, alors que Ma vie de chat monte - Astuces de Grand-Mère, alors que Docteur Tamalou remonte).

Je travaille pour trois sites dans le domaine animal, dont un acteur majeur du e-commerce français. Les trois sites ont été déclassés, -50% de visites par jour. -/+ 800 ventes en moins par jour, du jour au lendemain. Ça fait mal...

Enormément de positions ont été perdues, de la première place à la page 2 des SERP. Notamment pour les termes "Herbe à chat" par exemple, ou encore "arbre à chat" ou "terre de diatomée", bref c'est une avalanche de merdes à reconstruire, toujours et encore ...

Un autre site sur le jardin et les espaces verts, construit et référencé de la même manière, n'a lui pas du tout été impacté.
 
WRInaute occasionnel
c'est le même CMS pour les deux sites ?
de mon côté, pour le moment, j'ai une augmentation globale de mes KW en top 1-3 notamment
 
Nouveau WRInaute
Deux sont des blogs sur une base Wordpress, le e-commerce est développé en interne, sans cms.
Tu es sur le domaine animal / santé ?
 
WRInaute passionné
Pour ma part sur mon mot clef principal alors que le vendredi 8 mars je prenais la 1ère position (j'étais en 4/5 position avant) pendant 3 jours puis à partir du 12 une sorte de Google Dance de tous les acteurs de la première page passant de la 1 à la 8 puis remontant à le 3 etc etc etc et pour tous les sites pareil, et cela dure jusqu'à aujourd'hui encore

pour mes autres mots clefs et la longue traine aucun changement
 
Nouveau WRInaute
Bonjour pour ma part comme Redondo, j'avais connu une chute de mon trafic Google en septembre et avant ça en août.
Suite à cette mise à jour, mon trafic Google est en progression constante depuis le 13, sur les derniers jours il a été multiplié par 4 (plus 300% par rapport au 11), avant ça il stagnait.
3TV9fFb.png


Depuis que mon trafic avait chuté, j'avais essayé diverses méthodes pour me repositionner, sans succès, mais à priori c'était simplement les algorithmes de la fin de l'année qui n'appréciaient plus mon site, contrairement à celui de mars qui a eu un effet immédiat.
 
WRInaute accro
Je ne comprend pas pourquoi sur la plupart des sites spécialisés SEO pensent qu'il s'agit d'un retour en arrière de la mise à jour Medic.
J'ai deux sites affectés sur un thème totalement différent (jeux). Les mouvements affectent tous types de secteurs donc normal que ceux qui ont aussi été affecté par Medic connaissent aussi des variations !

J'ai un des 2 qui a bien morflé (-60% et ca continu de baisser). Il a reculé sur tous les mots clés ou a même disparu sur certains d'entre eux alors que j'étais parfois en 1er position.
Ce site avait déjà fait l'objet de sanction pingouin, panda... J'avais essayé de nettoyer beaucoup de mauvais BL, de faire des articles un peu plus riche etc. je l'avais également rendu mobile friendly...
A côté de ça je vois que des sites concurrents totalement abandonné depuis des années, qui ne sont même pas mobile friendly ou avec 3 pubs adsense au dessus de la ligne de flottaison refont surface. A quoi bon se faire chier si ceux qui ne font plus rien et ne sont clairement pas gg friendly se positionnent devant nous.

Mon second site est également consacré aux jeux. Depuis plus d'un an il suivait une bonne courbe de progression. Et en Mars perte de 20-30%. Ce site est clean. Ce que je peux éventuellement lui reprocher c'est d''avoir très peu de BL.

On lit souvent concernant cette MAJ qu'elle n'est pas là pour sanctionner des sites, mais quand je vois mes pertes j'ai de gros doutes. -60 a -70% sur un site. Le rendre maintenant quasiment absent sur pas mal de mots clés je ne vois pas comment on ne peut pas voir ça comme une sanction.
Pour moi on a donc affaire à une forme de panda, pingouin...

Je soupçonne également une prise en compte plus poussée de l'author (propriétaire du site), de notoriété. Vu que j'ai été sanctionné pour certains sites ca se répercute peut être sur les autres.
 
Olivier Duffez (admin)
Membre du personnel
aie... dur en effet.
ça avait donné quoi pour ces sites aux updates de début août 2018 et de fin septembre 2018 ?
 
WRInaute accro
Rien remarqué de réellement notables sur ces périodes. Entre les vacances scolaires et la rentrée j'ai des courbes qui me semble normales. De plus je n'avais pas spécialement remarqué de chutes ou des hausses importantes au niveau des mots clés. Ce qui n'est pas le cas pour cette MAj de Mars particulièrement violente.

Est-ce qu'on en sait plus maintenant sur cette MAJ ? car pour le moment je n'ai vu aucune info intéressante sur le sujet ou qui apporte quelque chose de nouveau.

PS : Sur le site qui a le plus souffert en mars je vois qu'il a également perdu beaucoup de visiteurs début septembre mais de bing. Y a t-il eu une MAJ importante chez Bing sur cette période ?
 
WRInaute accro
Aujourd'hui je constate en vérifiant les mots clés que mon second site qui avait moins morflé, est en train de perdre pas mal de positions aujourd'hui sur pleins de mots clés (mon 1er site également). C'est la seconde rafale... Je verrais bien ce que ca donne dans les stats d'ici 2-3 jours mais ça sent le sapin !

Cette MAJ semble mettre beaucoup de temps à finir de se déployer.

Ca fait toujours du bien de s'en prendre plein la tronche sans savoir pourquoi...
 
Dernière édition:
WRInaute passionné
Suite à cette mise à jour, mon trafic Google est en progression constante depuis le 13, sur les derniers jours il a été multiplié par 4 (plus 300% par rapport au 11), avant ça il stagnait
de quand date tes dernière modifications stp ? et quelles sont elles ?
 
WRInaute accro
D'après mes observations j'ai quelques pistes.
Tout d'abord j'ai été frappé le 18 et non le 12. Effet déploiement ou réplique due à une correction de bug. Je n'en sais rien.

Ensuite il me semble que les sites qui ont un fort linking externe sont favorisés. Donc les grosses pointures montent un peu. Wiki monte fortement sur des pages presques vides qui n'apportent rien et qui sont relativement récentes (octobre ou février par exemple). Ca semble due à l'effet PR qui renait de ses cendres.

J'ai vu aussi beaucoup de sites qui ne sont presque plus mis à jour depuis des années qui pointent le bout de leur nez. Des pages datant de 2011/2012 refont surface. De vieux sites qui étaient des références dans les années 2000 reviennent truster la première page de résultats et parfois même avec deux pages classées. Encore une fois ça semble être un effet mécanique car il est probable qu'une page qui date de 2011 possède plus de liens entrants qu'une page qui date d'il y a deux ans car au fil du temps les liens se sont accumulés.

Ce qui me conforte également dans cette idée c'est qu'un peu partout sur le web, sur les sites traitant de SEO, on voit que les gens sont contents. Et en général les gens qui fréquentent ce genre de site sont des webmaster qui travaillent sur leur site depuis des années et les tous jeunes sites ne viennent pas forcément témoigner sur les sites SEO car ils ne sont pas autant impliqués et n'ont pas accomplis un énorme travail pendant 10 ans. Donc si les vieux sites remontent parce qu'ils reçoivent mécaniquement plus de liens entrant, les intervenants des forums SEO sont contents. Ceux qui baissent ce sont les sites relativement jeunes et les webmasters ne viennent pas forcément le dire.

Ce qui pourrait s'être passé aussi, c'est que google a levé les pénalités qui ont été mises à partir de 2012, considérant que si un site était toujours présent depuis si longtemps c'est que c'était un site sérieux. Beaucoup de gens se sont pris des claques à plusieurs reprises depuis 2012 et on a souvent constaté qu'après une pénalité (justifiée) il était très difficile de remonter même si on rendait le site et son profil de liens vraiment clean, comme si une pénalité restait accrochée à la cheville comme un boulet, même après avoir fait le nécessaire. Beaucoup de gens abandonnent et recommencent un nouveau site avec un nouveau nom de domaine. Mais si google a levé les pénalités anciennes alors mécaniquement ces sites remontent pour retrouver leur juste position.

Sur un de mes sites qui date de 2006 je viens de faire le 2° plus gros chiffre en nombre d'impressions et les revenus adsense ont grimpé de 300% depuis le début du mois par rapport au mois précédent. C'est un vieux site pas mis a jour depuis plus de 3 ans.

Sur un site jeune qui date de 3 ans et qui a donc un profil de liens moins fourni je viens de perdre 25% de trafic depuis le 18.

Mais à mon sens il n'y a rien à faire à notre niveau car les gros changements de fond sont souvent pris en compte par google au bout de 4 ou 5 mois et je suis prêt à parier que le 1er août on verra la même chose que l'année dernière : c'est à dire un retour arrière sur les évolutions de mars. Et du coup toutes les évolutions faites sur nos sites ne serviront à rien car elles seront prises en compte au moment où l'update ne sera plus actif et ce sera un autre update qui viendra nous ennuyer. Donc le plus sage est de ne toucher à rien en fonction de cet update et de continuer à travailler sur des améliorations comme s'il n'avait jamais eu lieu. Ou éventuellement s'il y a quelque chose à faire c'est de travailler un peu plus sur le linking externe pour accumuler plus de bons liens. Mais il ne faut pas en faire trop pour ne pas se prendre une pénalité à cause du profil de linking qui semble artificiel.

De votre côté vous avez d'autres analyses ? Bien sûr, ça peu dépendre des secteurs d'activité et des types de sites. J'ai constaté ça seulement sur les secteurs où je suis impliqué et en fonction de mes recherches habituelles et je n'ai pas été voir les boutiques, la magazines, les forums, les actualités, etc... car ce sont des recherches que je n'effectue que rarement et je n'aurai pas été en mesure de constater une quelconque différence dans les résultats.

Mais en résumé je comprend que ça redonne le sourire à beaucoup de webmasters qui sortent un peu de la galère avec leur vieux site, mais pour ce qui est des internautes je ne suis pas certain qu'une remontée de pages datant de 2011/2012 ou encore plus anciennes soit d'un grand intérêt. Et pour ceux qui démarrent leur site aujourd'hui ça sera encore plus dur de percer (toujours selon mes constats personnels).
 
WRInaute passionné
constatez vous des mouvements sur tous les supports : mobile et desktop ? ou uniquement sur l'un ou l'autre ?
pour ma part, je constate une baisse de 5 places sur desktop mais juste 1 place de moins sur mobile
 
WRInaute accro
ma main à couper que tu as perdu une place en faveur d'un gros ou d'un ancien et pas avec un site qui a moins de 4 ans
 
WRInaute discret
Salut à tous,

Assez d'accord avec Indigene, mes sites (5 boutiques avec Oxatis, 5 ans pour le plus ancien) ont suivi la tendance générale.
En septembre 2018 une belle montée des positions,
puis entre le 12 et le 16 mars 1029 (c'est assez étalé) une bonne claque avec retour aux positions antérieures à septembre.
Les 5 ou 6 sites concurrents qui ont plus de 10 ans d'existence sont repassés devant.

Si la propriété dans les résultats de recherche est donnée aux sites historiques, à travail égal un site moins vieux est-il donc condamné à rester derrière ? Je reconnais que c'est très bête comme question, mais on en est là...

Bisous tout le monde et bonne journée,

Lucas.
 
WRInaute accro
@indigene : analyse intéressante car c'est effectivement ce que je constate (en partie) mais un point me chiffonne. Si effectivement il y a une levée de pingouin pour quoi mon site qui a également été sanctionné par Pingouin vers 2012-2013 chute alors que je suis passé Mobile friendly et que je continu de le mettre à jour de temps en temps et que j'ai bossé pour nettoyer une grande partie des mauvais BL ?
Et à côté de ça des sites à l'abandon et non mobile friendly remontent à la surface ? Des annuaires douteux qui font des échanges de liens et partenariats avec pleins de sites de casinos, des sites parfois vident de contenu, plus mis à jour depuis des années, avec beaucoup de liens sortant morts, pleins de pubs en haut de la ligne de flottaison et avec de beaux liens 302,301 et autres liens javascript pour dissimuler leurs liens sortant (pour donner l'impression de ne pas être un annuaire?).

Est-ce parce que j'ai désavoué pas mal de liens et pas eux ? Et par conséquent je paye le fait d'avoir voulu nettoyer et être plus réglo ? J'aurais donc du ne rien faire et attendre 5-6 ans que GG vire cette pénalité ?

Autant je peux comprendre cette Mise à jour quand je vois de gros (bons) sites gagner des places (on ne peut pas lutter...) autant quand je vois de la merde remonter ça me dépasse.
Ca fait des années que GG joue à la loterie et cet update est encore un bel exemple.

Et le monde du SEO ne semble pas plus avancé par rapport à cet update, ne faisant que rapporter des propos de GG qui évidemment ne disent rien.
 
WRInaute discret
En ce qui concerne, comme je l'ai écrit dans l'autre thread sur les produits, ce sont mes pages produit qui m'ont plombées, et pas un peu, c'est drastique. Les autres pages n'ont pas bougé.

Dans les questions dont j'aimerais avoir les réponses si certains en ont :

- les pages qui ont plongé sont elles des pages produit ?
- est-ce suite à des erreurs ou simplement à des avertissements sur la GSC ?
- est-ce que vous pensez que Google pénalise les sites marchand ?
- au bout de combien de temps avez-vous remonter les pages dont les données structurées on été corrigées ? sans doute trop tôt pour le dire car Google a toujours un temps de latence.

La grosse question, du moins pour moi, est de savoir si les raison de la baisse:
- données structurées manquantes ?
- contenu des pages produits qui sont plus descriptives et moins narratives ?
- les pages commerciales ?
- autre chose comme les liens comme mentionné plus tôt ?

La communauté pourra faire la différence ici.
 
WRInaute accro
J'ai un seul site touché par cette MAJ.

Pas de plein fouet, c'est très ciblé sur 2/3 pages (manque de pot ce sont celles qui comptent pour le client, donc celles qu'on a travaillé notamment au niveau backlinks).

Pour autant, ce que je note aussi c'est (dans mon cas), une forte poussée des sites de marques au détriment des petits ou moyens revendeurs. Sur le secteur du site (vêtement), ce sont les principales marques sur lesquelles mon client faisait du biz qui remontent à tout va, alors qu'on ne les voyait pas dans le top 5 depuis un bail.

Du coup autorité, pourquoi pas, mais on parle quand même d'un ecommercant qui est là depuis 1998/2000 (no kidding, je bosse sur ce site depuis mon ancienne carrière de dev).
 
WRInaute occasionnel
Moi par contre je me suis pris une belle claque de -20 % depuis environ le 20 mars. Comme vous le montre le schéma ici http://www.screencast.com/t/ZbDmkEOqnp4, j'avais également subi une claque mi-février, mais c'est remonté tout seul sans que je ne fasse rien.

Sur RM Tech j'ai 95,4 % (vert) de score globale, et 67,4 % (rouge) de score page active.

Le temps de chargement moyen de ma page est de 3,68 sec, c'est peut-être là d'où vient le problème. Sur Page Speed Inside seule ma page d’accueil affiche un score en orange, tout le reste est dans le rouge.

Étrangement, mes article signés par une expert-comptable, avec un lien vers son compte Linkedin, on eux-aussi prix une sérieuse claque. Pourtant si on tient compte des règles YMYL, ces pages auraient dû être préservées.

J'ai remarqué depuis quelques semaines que ma search console force l'indexation de ma page auteur, pourtant bloquée par le fichier robots.txt : http://www.screencast.com/t/qBg7eGFF.

Je vais donc en premier lieu me créer une chouette page auteur avec recommandation de mes partenaires. D'ailleurs, ça m'amène à une question : on peut rediriger la page auteur vers la page « à propos », sans risquer d'être excommunié et jeté aux oubliettes par Google ?

Puis je vais essayer de remonter la vitesse du site, on verra bien.
 
Dernière édition:
WRInaute occasionnel
Bonjour,
Je viens vous faire part de mon expérience face à ce nouvel update.
J'ai crée mon site en février 2011 - et jusqu'à présent à l'exception de quelques duplicate content dûs à des erreurs stupide je n'avais jamais été impacté par les mises à jour google.

Et je dois dire que même si j'enregistre une baisse de 35% actuellement - je ne suis même pas sûre à 100% que ce soit dû à la mise à jour. Malgré tout, voici donc ce que je constate :

- Tout démarre le 13 mars - grosse maintenance OVH en cours / déploiement google - je perds en une journée 80% de mon trafic ! La claque ! Au bout de 2 jours, je me rends compte que mon site est devenu inaccessible. Les dns avait été changé ! Ouf ce n'est pas la mise à jour que je me dis ! Bref, je corrige l'erreur et le trafic revient.

Il revient, oui mais pas totalement. Depuis, je suis toujours entre - 35 % de trafic.

Là obligé, c'est la mise à jour - enfin je pense.
J'observe des éléments vraiment très étranges et j'avoue ne pas savoir quoi en penser :

- dans l'interface GA, le google insight m'affiche anomalie sur anomalie. Pour lui, j'ai moins de trafic que ce que je suis censé avoir. (A ce stade, je ne sais pas si l'insight prend en compte le déploiement google ou pas et donc si l'anomalie détectée est normale ou si ça en est vraiment une ! )

- dans la search console, le nombre d'impression et de clic est en chute libre MAIS les positions demeurent stable voir en amélioration !!! Que soit sur mobile ou desktop

- Dans GA, le trafic continue de baisser, très lentement mais surement. Lorsque j'observe les courbes mobiles / desktop, la proportion de ces deux supports restaient cohérente par rapport au trafic. En revanche, depuis vendredi 29 mars, j'ai plus de mobile et moins de desktop. Je suis passée de 67% Mobile / 24% Desktop à 75% mobile / 15% desktop. Je n'ai pas assez de recul pour analyser cette variation dans la search console

Au niveau des serps, je suis dans la thématique animale ( comme certains d'entre vous ici) - sur mes pages santé, je constate une progression des marques d'autorité ( le monde, purina, centrale canine) et des blogs vétérinaire sérieux.

Enfin la baisse n'est pas cloisonnée. L'ensemble du site est impacté quelque soit la catégorie, quelques soit la dernière mise à jour. J'ai des catégories plus pauvre que d'autres mais toutes subissent la même perte au même moment. Et je précise que je ne fais pas de backlink.

Le dernier audi RM Tech d'aout 2018 m'affichait un score jaune de 91.3 avec un quality risk à 19%, profondeur de maillage interne à 27% en erreur (cocon sémantique), et du contenu non optimisé à 20%.
Donc sur mon site, il y a du boulot. J'ai bossé dessus comme un âne pendant des années et ces deux dernières années j'ai baissé les bras. En faisant l'audit j'ai vu tout ce qu'il y avait à faire, à refaire, à re-re-refaire ! Ça m'a gavé ...

Finalement, c'est une punition méritée en ce qui me concerne.
 
Nouveau WRInaute
Bonjour à tous,

Je viens de lire tous les posts ci-dessus et n’ai vraiment pas tout compris (serps, BL, YMYL...) : je suis donc un néophyte en SE&O (mais pas naïf), inscrit depuis (voir ci-contre) sur Web Rankinfo et comme vous pouvez le voir sur un graph GA ci-dessous, le trafic de mon site (gastronomique, ouvert en 2016) a chuté de 50 % depuis le 13/03/09.
Je n’ai fait aucunes analyses techniques ou autres de mon site pour en déterminer la ou les causes exactes « googlewise », car je ne sais pas le faire (et je ne demande pas du tout à ce qu’on les fasse pour moi).
Là seule chose qui m’échauffe beaucoup (et même plus) : comment (et pourquoi ?) peut-on se laisser faire ainsi sans pouvoir réagir aussi violemment que le diktat de Google le fait et qui s’impose désormais à tous, faibles que nous semblons être ? Et comment on est-on arrivé là ?

Certains vont rire de mes questions, mais moi ça me ferait (presque) pleurer….ScreenshotGA Baisse traffic 03 13.JPG
 
WRInaute occasionnel
Regis, c'est très simple : tu n'as pas le choix. Google c'est 95% d'utilisateurs.
Pour contre balancer ça, il faudrait inverser la tendance des utilisateurs - mais la plupart ne perçoivent pas google comme nous le percevons. C'est peine perdu - et vu l'investissement qu'il met sur les autres marchés (automobile, médical...), on n'est pas au bout de nos surprises.

Donc, faire un site web, c'est se soumettre à ses exigences - ou alors faire du black SEO en partant du principe que tôt ou tard il te rattrapera.
Ou encore utiliser un maximum les réseaux sociaux et concevoir son business à partir de là.
 
WRInaute accro
C'est MAJ est hallucinante, mes sites continus de sévèrement plonger...
Disparition petit à petit pour la plupart des mots clés ou chute de plusieurs positions. Une MAJ incompréhensible et extrêmement frustrante. Plein le c*l !
 
WRInaute accro
En regardant uniquement mon nombre d'impression dans le google search console, je vois que j'avais effectivement profité de la mise a jour de fin septembre 2019 et que depuis mon nombre de visiteurs augmenté progressivement ainsi que les impressions. La je retombe petit a petit au niveau des impression avant fin septembre et j'ai l'impression que ça va continuer de chuter.

Je ne sais vraiment pas ce qu'il faut en déduire.

Je viens également de constater que j'ai des pages qui ne sont tout simplement plus indexées !! C’est vraiment la cata...
 
Nouveau WRInaute
Je suis bien d'accord avec toi Noren : une vraie cata, à en dégougueleuer...
Depuis le 13/03, je suis passé de 900/1000 à 300 visites/jour. Les impressions suivent sans discontinuer. Jusqu'où ?
Et aucune réaction de la communauté du Net. Tout le monde semble s'en contre-foutre.
Pour mon info, Noren, comment/où vois-tu les pages indexées ? - Merci
 
WRInaute discret
Je tente de faire quelques recoupements: mes pages produit ont chuté de manière très forte, mes pages de blog n'ont pas bougé ou presque.
Les pages produits représentent des formations et ont ces particularités:
- moins de phrases, plus de bullet points
- concurrencées par des établissement de formation institutionnels
- les modifications ont créé des erreurs produit dans la Search Console.

J'ai réussi à faire remonter fortement certaines pages et même à retrouver certaines position 1 mais le trafic est toujours inférieur de 30 à 40%.
Parmi les hypothèses:
- les phrases courtes seraient pénalisées au profit de la rédaction
- les institutionnels passent devant et alors il n'y a rien à faire
- les corrections des pages produit dans la search console vont faire la différence.

J'attends de voir vos constatations.
 
WRInaute passionné
Et si google jouait simplement à la roulette russe, un coup l'un un coup l'autre.. comme ca tout le monde est content au moins durant une période.. tout simplement .. non ?
 
WRInaute accro
Si la propriété dans les résultats de recherche est donnée aux sites historiques, à travail égal un site moins vieux est-il donc condamné à rester derrière ? Je reconnais que c'est très bête comme question, mais on en est là...

Je pense que ce n'est pas une question d'ancienneté mais une question de notoriété. Si on voit remonter des sites anciens c'est que mathématiquement ils ont accumulé plus de liens entrant que des sites jeunes. Mais les sites anciens qui n'ont pas beaucoup de liens entrant ne remontent pas. Donc pas un sujet d'âge du site mais de PR.

Et si google jouait simplement à la roulette russe, un coup l'un un coup l'autre.. comme ca tout le monde est content au moins durant une période.. tout simplement .. non ?

L'année dernière je pensais que la mise à jour du 1er août était une correction de l'update du 9 mars mais maintenant j'en suis amené à penser comme toi. Google a activé un paramètre qui donne plus d'importance aux anciens sites qui étaient des références il y a quelques années, et donc aux sites institutionnels et aux gros. Et au mois d'août ils vont désactiver ce paramètre pour en activer un autre et donc tous les sites qui ont été pénalisés à l'update mars 2019 vont retrouver leurs places, sauf ceux qui font de gros changements pour tenter de contrer cet update et de trouver une solution illusoire. Ils sont en fait en train de détruire petit à petit le travail qu'ils avaient fait jusque là et qui était du bon travail.

La solution à mon sens est de travailler sur les BL et de continuer à publier comme avant mais surtout ne rien changer dans la structure de fond du site en recherche d'une hypothétique solution.

Depuis 2003 c'est la première fois que je ne comprend pas les raisons évidentes d'une telle claque. Avant j'arrivais toujours à expliquer les raisons de mes chutes car il y avait quelque chose de logique. Mais là je suis comme noren et je trouve aucune logique dans tout cela.

Peut-être une piste : les BL provenant de sites non optimisés mobiles pourraient avoir un poids plus faible que les BL provenant de sites optimisés mobile. Il y aurait quelque chose de logique là dedans. Mais ça voudrait aussi dire qu'à la prochaine mise à jour du core de google, ça ne remonterait pas :-(

D'autres qui ont aussi chuté ont-ils constaté qu'ils recevaient beaucoup de BL venant de sites non mobile friendly ?

Et pour aller à l'encontre de cette théorie, y a-t-il des sites qui reçoivent énormément de BL provenant de sites non mobile friendly et qui n'ont pas été impacté ou qui ont même amélioré leur trafic ?
 
WRInaute accro
C'est MAJ est hallucinante, mes sites continus de sévèrement plonger...
Disparition petit à petit pour la plupart des mots clés ou chute de plusieurs positions. Une MAJ incompréhensible et extrêmement frustrante. Plein le c*l !

Tu n'es pas le seul.
Mon site à 3 ans. La première année je n'ai rien gagné. La seconde année j'ai gagné un tout petit peu. La troisième année j'ai été impacté négativement par l'update du 9 mars 2018 et tout est revenu en place le 1er août. J'ai donc fait environ 6 mois où il marchait bien.
Maintenant je suis revenu aux niveaux d'il y a 1 an alors que le site comporte 55% de contenu en plus par rapport à il y a un an. Je fais -50% par rapport à fin août. C'est un an de travail de perdu car les 55% de contenu en plus ne me rapporte strictement rien. Un an de labeur payé zéro !
 
WRInaute passionné
Oui, dur à encaisser.. perso j'ai compris un truc .. il faut pas sur réagir mais voir long terme. Google est impénétrable, seul les SEO vous diront le contraire (normal c'est leur gagne pain ^^).
 
WRInaute discret
Et si google jouait simplement à la roulette russe, un coup l'un un coup l'autre.. comme ca tout le monde est content au moins durant une période.. tout simplement .. non ?
J'ai effectivement pensé à cela, peut-être que Google veut augmenter ses revenus en envoyant un message du style: si vous voulez de la stabilité alors achetez des Adwords
 
WRInaute accro
En tout cas cette MAJ est particulièrement violente. Comme je l'ai dit plus haut, en ce qui me concerne elle est du même niveau qu'au début du panda et pingouin.
Elle met beaucoup de temps à se stabiliser. Presque un mois après les datacenters sont toujours très instables (et je ne parle pas uniquement du bug qui retire de l'index certaines pages) et les positions continuent de chuter lentement mais surement. C'est quand même incroyable qu'on en sache pas plus sur cette MAJ. Ca ne dérange pas plus que ça qu'une seule société et un simple algo peut bouleverser de façon plus ou moins importante l'économie de milliers d'entreprises ! A n'importe quel moment et sans explication !

C'est un peu comme si j'avais le pouvoir d'aller à mon centre ville et que d'un coup je décide de déplacer tous les commerces de proximité sans leur demander leur avis, leur expliquer pourquoi. Puis de les déplacer ainsi sans cesse tous les x mois/semaines/ans.
Ce que ces commerces ne savent pas c'est que maintenant je privilégies les commerces avec des façades jaunes fluo... Je sais je suis vicieux mais faudrait pas que les commerces mal intentionnés en profite. Donc je préfère rien dire même si ça fait ch*er tout le monde...
 
Olivier Duffez (admin)
Membre du personnel
juste pour prévenir que j'ai mis à jour le 1er message de cette discussion, avec des infos intéressantes me semble-t-il
 
Dernière édition:
WRInaute accro
Merci pour ce retour. Mais ça m'aide pas vraiment à y voir plus clair surtout quand je vois ce qui est remonté dans les Serps.

Comme je l'ai indiqué plus haut, je vois des sites à l'abandon (et donc avec des infos datées ou plus mises a jour), des sites bourrés de pubs au dessus de la ligne de flottaison (c’est de la publicité excessive il me semble) et avec peu de contenu dans chaque article (voir même du DC). Les pages satellites ont également le sourire. Voir des sites qui ne sont même pas optimisés pour le mobile (où est la bonne expérience utilisateur là ?). Et j'en passe.
En gros des sites qui ne semblent pas être en adéquation avec la conclusion de Eric Lancheres concernant cette MAJ.
 
Olivier Duffez (admin)
Membre du personnel
peut-être que pour ces exemples, tu n'analyses qu'un élément de l'équation, et que les pages sont nulles pour certains critères qui te sautent aux yeux et bonnes pour d'autres que tu oublies d'étudier.

ne trouves-tu pas ses conseils intéressants ?
 
WRInaute occasionnel
@WebRankInfo : Pour ma part Olivier, je ne suis pas d'accord avec tout ce que tu décris. En tout cas, je ne correspond pas au profil. Je te détaille ça :

  • est une mise à jour à l'échelle du site qui affecte toutes les pages d'un domaine : OK
  • n'affecte pas l'interprétation des mots sur une page : OK
  • accorde la priorité à l'expérience utilisateur plutôt qu'à la sur-optimisation. Les sites qui offrent une bonne expérience utilisateur ont connu une augmentation du trafic malgré certains problèmes à la page. PAS OK, mes utilisateurs restent en moyenne 5min sur mes pages - certaines moins évidemment mais dans l'ensemble l'expérience utilisateur est bonne. Sans compter que le site est rapide et responsive.
  • Une publicité excessive qui mène à une mauvaise expérience utilisateur est l'une des principales raisons pour lesquelles les sites ont perdu du trafic. PAS OK : je n'ai pas le moindre publicité adsense sur le site. En revanche, j'ai sur la plupart des pages un formulaire commerciale
  • cible les sites qui offrent une mauvaise expérience utilisateur en raison de la lourdeur des éléments de la page (mauvaise navigation, pop-ups excessifs, etc.). PAS OK : mon site est plutôt rapide. La home par exemple se charge en 303ms, une page catégorie en 609ms et une page article en 1,32s (je parle du DOM), finished en 4s. L'intégration du formulaire pénalise fortement la rapidité de base du site.
  • a eu un impact négatif sur les pages excessivement commerciales qui se font passer pour des pages d'information. PAS OK, pour ma part, j'ai simplement rajouté un texte (en image) et le formulaire. Pas d'excès du niveau commerciale donc.
  • cible les sites dont le contenu est de faible qualité. Moyennement OK : les pages de mon site font en moyenne 3000 mots. Certaines en revanche ont besoin d'être revue, entre autre toute une catégorie. Jusqu'à présent ça n'avait pas pénalisé le site étant donné que le peu de contenu que j'avais était riche et exclusif.
  • Les sites qui offrent une bonne expérience utilisateur ont vu des améliorations dans les classements en dépit des problèmes persistants de cannibalisation des mots-clés. La je ne sais pas, je ne suis pas concernée
  • ne semble pas pénaliser les sites à cause des liens. Aucune idée non plus, je n'ai pratiquement pas fait de netlinking, tous les liens que j'ai sont naturel à l'exception d'une dizaine. En revanche, je n'en ai pas beaucoup
Et pourtant j'ai perdu plus ou moins 30% de trafic et le dernier audit réalisé chez toi, le 1er avril 2019 indique un score de 89,9 et un score page active de 72,9. Je suis d'accord qu'il y a du boulot à faire, mais de là a faire de de mon site un site ayant une mauvaise expérience utilisateur non.

Ce que je ne comprend pas surtout c'est ça :

FireShot Capture 002 - Performances - search.google.com.png

L'impression et les clics sont en baisse, tandis que les positions sont en légère hausses !!
Si quelqu'un a une réponse à cet énigme, je suis preneuse ! Quand tu as parlé du bug des datacenters dans un autre topic, je me suis dis que cela pouvait expliquer ces résultats, sauf que les dates ne correspondent pas et qu'aujourd'hui je suis toujours au même point.

Voilà pour mon retour d'expérience, si tu as des questions n'hésite pas
 
Olivier Duffez (admin)
Membre du personnel
Les problèmes sont peut-être ailleurs, par exemple sur les aspects E-A-T (on ne connait pas l'auteur des contenus, on ne voit pas de sources d'informations scientifiques ou autres, etc.).
C'est peut-être aussi un réajustement des 2 dernières updates, tu avais bien monté ?
 
WRInaute discret
L'impression et les clics sont en baisse, tandis que les positions sont en légère hausses !!

L'explication est simple, tu dois avoir des mots clés qui baissent en position voire qui sortent de l'index google, ce qui te fait moins d'impression et donc moins de clics.
Parallèlement à ça, tes mots clés bien placés font remonter ta position moyenne.
Ex :
tu as un mot clé en position 5
Tu as un autre mot clé en position 20
-> position moyenne : 12
ton deuxième mot clé sort de l'index -> ta position moyenne passe à 5
Cet exemple est bien entendu simpliste mais c'est pour essayer de t'expliquer.
C'est pour ça qu'une position moyenne qui baisse n'est pas forcément mauvaise si les impressions augmentent. Cela veut dire surement que tu as de nouveaux mots clés qui sont indexés.
J'espère avoir été clair et ne pas avoir dit de bêtises !
 
WRInaute occasionnel
@WebRankInfo : Je penche pour le réajustement, je n'avais pas "bien monté", c'était monté progressivement et effectivement je suis revenu au trafic précédent. Pour Médic j'avais perdu 25% (je ne m'en souvenais plus !), le 27 septembre (google birthday) j'avais récupéré mon trafic et plus par la suite.
FireShot Capture 033 - Analytics - analytics.google.com.png

Et en effet je ne respecte pas les aspects E-A-T .... si c'est ça qui me pénalise aujourd'hui et bien je ne suis pas prête de remonter ! Car même si je connais très bien mon secteur, ce n'est pas pour autant mon métier !

@buenahato : j'ai compris ton explication et tu dois avoir probablement raison. Je vais regarder plus en détail la search console. Mais dans ces cas-là c'est pas très logique. Si je dois etre pénalisé pour les aspects EAT, alors les pages devraient être pénalisé sur l'ensemble des mots-clés et pas sur quelques uns ! J'aurais peut-etre une réponse avec ce que je trouverais dans la search console.

@WebRankInfo est-ce que google médic est un déploiement permanent (comme panda, pingouin) ?
 
Dernière édition:
WRInaute accro
[
Et en effet je ne respecte pas les aspects E-A-T .... si c'est ça qui me pénalise aujourd'hui et bien je ne suis pas prête de remonter ! Car même si je connais très bien mon secteur, ce n'est pas pour autant mon métier !

Dans ce cas la ça voudrait dire que l'aspect E-A-T est plus important que tout le reste dans cette MAJ, en tout cas... dans ton cas ?
Donc même si l'expérience utilisateur est vraiment bonne GG s'en contrefiche tant qu'on ne colle pas son CV et sa photo à chaque article ?

C'est ce donc ça le web d'aujourd'hui ? Quelque soit le secteur d'activité ?

Ton site traite de santé ? est-ce un sujet sensible ?

J'ai vraiment l'impression qu'on essaye maintenant de trouver des raisons en vain pour expliquer pourquoi tel site chute ou grimpe. Il y a tellement de facteurs différents qui s'influencent que ca devient quasi impossible. Même GG ne maitrise pas/plus toutes ses MAJ et leurs comportements.

peut-être que pour ces exemples, tu n'analyses qu'un élément de l'équation, et que les pages sont nulles pour certains critères qui te sautent aux yeux et bonnes pour d'autres que tu oublies d'étudier.

ne trouves-tu pas ses conseils intéressants ?

Peut être essaye t-on aussi de trouver le moindre petit truc potentiellement positif pour justifier une remonté alors que pourtant tout le reste est dans le rouge. Et ça marche dans l'autre sens également.

Au niveau des sites que j'ai vu remonté, les seule choses qui pourraient faire la différence, je pense, par rapport à mes sites qui se sont pris 60% pour l'un et plus de 30% pour l'autre, c'est qu'ils ont peut être jamais désavoué (je paye peut être le prix de l'avoir fait sur celui qui a été le plus touché) ou le fait qu'ils dissimulent tous leurs liens sortant par des redirections 302 pour ainsi ne pas se faire identifier comme étant des annuaires. Faut croire que GG, en 2019, n’est pas capable de voir la supercherie. Entre ça ou des liens en JS etc.
Mais ça voudrait dire que ces critères sont plus important que d'être compatible mobile, de ne pas avoir 3 pubs au dessus de la ligne de flottaison, d'avoir plus de 100 mots par page ou d'être toujours un site actif.

Donc ce n'est pas que ces conseils sont inintéressants, même si en fin de compte on en arrive toujours plus ou moins au même quelque soit la MAJ (contenu de qualité, bonne expérience utilisateur, pas trop de pubs etc.), mais plus le fait qu'ils ne me semblent pas vraiment refléter la réalité de cette MAJ du moins dans ma petite bulle. C'est pas pour dénigrer le travail qui a été fourni bien sur, car je me doute bien que les experts SEO ont bien plus de moyens pour effectuer ce type d'analyse, mais je comprend surtout que depuis quelques années que ce travail à du fortement se complexifier. J'ai juste une impression qu'on nage dans le flou car GG ne donne plus rien à se mettre sous la dent comme info. Voir manipule. Et qu'il y a tellement de paramètres à prendre en compte...

On nous dit de penser utilisateur quand on fait un site mais c’est faut, le moindre pet de travers (sans qu'on sache vraiment lequel) et on est mis sur la touche. GG ne fait plus dans la demi mesure c’est du tout ou rien à chaque grosse MAJ. Il instaure une forme de peur et donc de contrôle.

Qu'une société puisse jouer autant sur l'économie mondiale à chaque MAJ me dépasse. Enfin bon...c’est certainement la colère qui me fait parler ainsi...

Et je sais certains diront qu'il ne faut pas mettre tous ces oeufs dans le même panier... Beaucoup d'entreprises ont une part de leur CA, non négligeable qui dépend de sa présence dans les serps qu'on le veuille ou non et même si elles ont plusieurs paniers. Arf en fin de compte je me répète à chaque fois que je suis affecté par ces fichues MAJ... et ça m'énerve. :)
je crois que je vais m'éloigner de tout ça...
 
Dernière édition:
Olivier Duffez (admin)
Membre du personnel
Ta priorité est de réduire ta dépendance à Google. Au fait, n'hésite pas à ouvrir une discussion en présentant ton site afin de recueillir des avis.
 
WRInaute occasionnel
Je suis allée voir un petit peu les sites concurrents (ex concurrents). Des sites que je voyais constamment en première page sur énormément de requêtes. Je parle de site qui brassaient des millions de vues par jour. Résultat : -50 à -80% en moyenne ! Je m'en sort franchement bien !

Pourtant, parmi tout ceux là, il y en a un que je suivais de près parce qu'il avait la fâcheuse tendance a prendre mes sujets pour les réécrire grosso-modo, bref. J'ai vu son évolution et le travail qu'il a fait. Et il a respecté E-A-T, a fait une formation poussé dans son secteur, a mis en place un gros réseau de fidèle, a également bcp de bon backlink, avec des liens interne optimisés certes mais diversifiés. Bref, il a suivi les exigences du SEO. Il a aussi optimisé la navigation web, accélérer son site, rendu le visuel plus agréable. Bref tout bien mieux que moi et pourtant il s'est pris cette mise à jour en pleine face ! (environ 90% en moins)

C'est pour ça que je pense, comme Indigène un peu plus haut dans le topic, qu'il y aura une autre mise à jour d'ici quelque temps pour viendra contrebalancé tout ça.

Ce sont des business entiers qui se sont écroulés en l'espace d'une journée.

---

A l'inverse, il y a un jeune site dans ma thématique, qui en l'espace deux ans d'existence est passé de 0 à 2 millions de visiteurs. Une progression en escalier ou on voit bien les mises à jour google qui lui ont largement profité. Ce qui est différents pour lui c'est qu'il est "LE" site à la mode en ce moment (je dis bien "en ce moment, car il y a 10 ans c'était un autre site qui aujourd'hui n'existe pratiquement plus). Il est "La" référence sur les réseau sociaux. Parce qu'en terme de rapidité, de fluidité, d'information ect ... je ne dis pas qu'il est mauvais, mais il n'est pas spécialement supérieur non plus. Il a misé un max sur la communauté interne au site et externe. 640K fan fb, et chaque articles comporte des commentaires, le forum fonctionne bien aussi. Il y a un facteur humain bien plus important, et bien plus réussi. Il a totalement écrasé l'ancienne référence et tout ça en partant d'un jeu sur play store qui a bien fonctionné. Il a racheté un site de moyenne audience mais qui existait depuis 10 ans et a fusionné l'ensemble avec un meilleur rendu.

Bref, j'aurais bien dit que la notoriété est l'élément clé de cette mise à jour mais je ne peux pas l'affirmer non plus. Puisqu'en ce qui me concerne je suis totalement à l'oppposé. Aucune communauté interne au site, et aucune présence sur les réseaux sociaux (la page existe mais je n'y vais pas). Et, mon concurrent lui est bien présent, a une communauté pas aussi grandre que LA référence, mais il en une bonne quand même 45K fan. Et pourtant il a mangé sévère.
A chaque fois je trouve des exemples, des contres exemples... C'est compliqué de vraiment comprendre POURQUOI ça s'est écroulé de façon individuel. (je parle pour tout le monde pas pour moi)

@noren : je ne conçois pas l'idée de coller ma photo sur mes articles. Je n'ai pas envie que quelqu'un débarque chez moi pour me faire la moral ou me donner une leçon ou n'importe quoi d'autre - parce qu'il y aura toujours des mécontents ! Mais pour ceux qui l'ont fait, j'ai étudié les profils - entre autre sur le site dont je viens de parler - et je ne crois pas qu'il s'agisse de vrai personne. Je pense que ce sont des profils type avec des images uniques. Je peux dire que je suis Diplomée d'haward, personne ne pourra vérifier !

@WebRankInfo : entièrement d'accord !
 
Dernière édition:
WRInaute impliqué
Mais pour ceux qui l'ont fait, j'ai étudié les profils - entre autre sur le site dont je viens de parler - et je ne crois pas qu'il s'agisse de vrai personne. Je pense que ce sont des profils type avec des images uniques.

Je pense qu'il faut bien garder en tête que c'est un algo qui mesure l'EAT : un robot donc... Peut-être que ça s'améliorera avec le temps mais il doit effectivement être possible de le "berner"... Une photo, un profil Linkedin, une belle page qui sommes-nous... Je vois par exemple pas mal de blogs de maman pipeau avec photo et profil qui sommes-nous qui quand tu creuses un peu ne sont que des sites de PBN Seo.
 
Nouveau WRInaute
J'essaie de suivre, je survole.. mais ça viendra.

deux questions : 1) c'est quoi l'aspect E-A-T ?
2) " Ce sont des business entiers qui se sont écroulés en l'espace d'une journée " de freestyle83 : Et là voilà la phrase-clef : et quelles instances nationale et internationale s'occupent de ce cas Medic (si elles en sont conscientes ou averties) : c'est à nouveau une position dominante de Google, frisant/défrisant l'abus de pouvoir commercial et la concurrence (très) déloyale. Non ?
 
WRInaute passionné
Google berne tout le monde.. il est en roue libre.. il doit bien rire sous sa barbe.. on y comprend strictement rien.. et finalement c'est le but.. pour ne pas qu'il puisse être manipulé, google nous manipule. Cherchez plus, y'a rien à comprendre.. c'est la roulette russe. Oubliez google et faites votre site comme il vous plait sans penser rendement, le reste viendra tout seul .. ou pas lol
 
WRInaute accro
Merci pour ce retour. Mais ça m'aide pas vraiment à y voir plus clair surtout quand je vois ce qui est remonté dans les Serps......
.
En gros des sites qui ne semblent pas être en adéquation avec la conclusion de Eric Lancheres concernant cette MAJ.
Je fais exactement les mêmes constatations que toi et pour mon cas je viens de multiplier par 3 les annonces adsences pour essayer d'endiguer le manque à gagner. C'est dire si j'avais de la marge et que mon site n'était pas submergé de pub.

Les analyses d'Eric Lancheres sont peut-être correctes pour les sites qui grimpent (parfois de plusieurs centaines de % sur le trafic) mais me semblent complètement mauvaises pour les sites qui baissent.
 
WRInaute accro
L'explication est simple, tu dois avoir des mots clés qui baissent en position voire qui sortent de l'index google, ce qui te fait moins d'impression et donc moins de clics.
Parallèlement à ça, tes mots clés bien placés font remonter ta position moyenne.
Ex :
tu as un mot clé en position 5
Tu as un autre mot clé en position 20
-> position moyenne : 12
ton deuxième mot clé sort de l'index -> ta position moyenne passe à 5
Cet exemple est bien entendu simpliste mais c'est pour essayer de t'expliquer.
C'est pour ça qu'une position moyenne qui baisse n'est pas forcément mauvaise si les impressions augmentent. Cela veut dire surement que tu as de nouveaux mots clés qui sont indexés.
J'espère avoir été clair et ne pas avoir dit de bêtises !

Cette explication est déjà plus plausible mais elle correspond excactement à ce que j'avais connu l'année dernière le 9 mars : disparition des requêtes de longue traine.
En février 2018 j'avais en moyenne 300 requêtes différentes par jour qui conduisaient à des clics. Puis à partir du 9 mars et jusqu'au 1er août je n'avais plus que 150 requêtes par jour qui conduisaient à des clics. Par contre les requêtes principales étaient toujours aussi bien positionnées. Chez moi c'était les requêtes de longue traine qui avaient presque disparu de mes stats. Par longue traine j'entend "requêtes rares" + "requêtes longues".

Cette année c'est sensiblement différent. Je suis passé de 380 requêtes en moyenne conduisant à un clic à environ 240 requêtes conduisant à un clic. Mais contrairement à l'année dernière, les requêtes principales ont chuté dans le classement des SERP en perdant une ou deux ou 3 positions et concernant la longue traine ce n'est pas aussi évident que l'année dernière. Une partie à disparu seulement. Ce qui fait que pour moi la position moyenne n'est pas en hausse comme l'année dernière mais en légère baisse. Et je vois remonter dans les serp de vieux sites, des pages qui n'ont pas été mises à jour depuis 10 ans et qui ne sont même pas responsives.

L'authoring est peut-être une piste à creuser car là dessus je suis dans le même cas que freestyle.

On dirait que google accorde plus d'importance à l'authoring et à la notoriété passée
 
WRInaute accro
J'ai vraiment l'impression qu'on essaye maintenant de trouver des raisons en vain pour expliquer pourquoi tel site chute ou grimpe. Il y a tellement de facteurs différents qui s'influencent que ca devient quasi impossible. Même GG ne maitrise pas/plus toutes ses MAJ et leurs comportements.

Même si on trouvait les raisons exactes et qu'on fasse les modifications nécessaire, il y a fort à parier qu'elles ne seraient prises en compte qu'au bout de plusieurs mois et comme par hasard ça correspond à une autre mise à jour importante de google qui mettrait en avant de nouveaux critères. Donc toutes les corrections ne serviraient à rien. Il faudrait anticiper ce que google va mettre en avant lors sa prochaine mise à jour (ce qui est impossible à faire).
Nous sommes dans une situation qui est pire que la google dance.
Nous sommes pénalisés arbitrairement par le jeu des paramétrages de google et nous ne pouvons rien faire pour y remédier, juste attendre la prochaine mise à jour qui annule cette série de paramètres, en espérant que les paramètres suivants ne nous affecterons pas.
 
Nouveau WRInaute
Bonjour à tous :
je répète ma question : et c'est quoi l'aspect E-A-T ? - merci
J'en profite : quand aura-t-on un post du genre : " ca y-est les gars, je sais comment annuler l'effet de la MAJ du 13/03 /2019, voilà..."
 
WRInaute impliqué
Bonjour,

Est-ce que certains d'entre vous ont vu une réplique de la mise à jour entre le 20 et le 28 avril ?
 
WRInaute occasionnel
Bonsoir,
Réplique en ce qui me concerne, mardi (hier). -10% supplémentaires - a voir dans les jours à suivre
 
WRInaute occasionnel
Bonjour,

Petite correction de -5,5 % pour moi hier, mon trafic est descendu entre 14 h et 15 h.
 
WRInaute occasionnel
Aujourd'hui c'est revenu à la "normal", disons au niveau d'avant-hier :) - Affaire à suivre

Je précise que je n'ai toujours rien fait sur le site suite à la mise à jour. Si cela reste stable comme ça, j'ai l'intention d'encaisser cette baisse et de voir dans les prochains mois pour prendre une décision.

Une idée m'est venue en tête, je suis sûre que, comme moi, vous avez été un jour confronté à des spécialistes qui vous ont dit "n'écoutez pas ce qui est écrit sur internet, c'est que des con**rie".
Google étant avant tout une entreprise, il cherche certainement a redorer son blason en virant les sites rédigé par des non-expert pour mettre sur le devant de la scène ceux rédigés par des experts dans leur thématique, quelque soit la thématique en question. Aujourd'hui c'est le domaine médical, animalier, mais si j'ai raison alors cela s'étendra sur tout les sujets.

C'est une démarche totalement compréhensible et qui s'accorde avec cette volonté de vouloir imposer "le cv" comme dit Noren dans chaque page.
Reste a savoir, qu'est-ce que google considère comme expert. Et comment il procède de façon algorithmique pour départager les bons des mauvais.
 
WRInaute occasionnel
C'est une démarche totalement compréhensible et qui s'accorde avec cette volonté de vouloir imposer "le cv"

Les mauvaises langues disent que c'est aussi pour booster le besoin en marketing, et donc les annonces AdSense. Oh non, vraiment, les gens sont médisants…;)
 
Nouveau WRInaute
Bonjour on me transmet votre article concernant la MAJ de mars 2019,
J'ai écris effectivement un post car a cette période là exactement le 11 mars j'ai fais une grosse modification du menu pour améliorer mon offre, et depuis cette date là j'ai plongé de 50% de visiteurs en moins.
Allez disons 40%.. effectivement mes mots clefs n'ont pas bougés mais beaucoup moins de visibilités sauf a grand coup mailing, et de pub réseaux sociaux , j'ai fais un peu de de GOOGLE ADS , bien évidement bête et discipliné et j'ai stabilisé que faire ?
Merci je vais tout relire et essayer de corriger mais bon
Que faire repartir à la guerre?
Bon 8 mai .
Chrys
 
WRInaute occasionnel
Bonjour,

Les grosses modifications structurelles comme :
- les changements d'urls internes / maillage,
- les changements de titres (title), balises (surtout h1), ...,
- les modifications de contenu (textes des pages) en masse,
- les modifications des menus,
- etc
provoquent des changements. Même quand le site est stable (peu ou pas de modifications) certaines positions font du yoyo :).

Il faut vraiment juger sur la durée afin que les modifications soient prisent en compte.
 
WRInaute accro
Pour résumer, avec un peu de recul, voici comment ça s'est passé pour moi :

- plongeon le 18 mars (-30% de trafic)
- la descente continue pendant 1 mois pour arriver à -50%
- stabilisation pendant 1 mois
- légère remontée (les indicateurs redeviennent verts par rapport au mois précédent)

Actuellement, sur adsense, je fais +8% de pages vues par rapport aux 28 jours précédents mais chute de 14% par rapport à avant l'update. Mais la remontée peut être conjoncturelle en raison des jours fériés et des fêtes des mères, fêtes des pères, etc...
+6% sur les impressions mais toujours chute de 20% par rapport à avant
+18% sur les clics mais je dois avouer que j'ai ajouté beaucoup de publicité pour tenter de compenser la baisse des revenus de 50%
+9% sur le CTR mais toujours baisse de 15 à 20% par rapport à avant.

Au final j'en suis à -20% de revenus par rapport à la même période il y a 1 an (malgré 55% de contenu en plus). Pour le mois de mai j'attends -40% par rapport à la moyenne de la période août-décembre.

Sur ma courbe de trafic on voit bien la chute brutale, la lente descente, la stagnation puis la remontée le 14 mai sans toutefois revenir aux niveaux d'avant. trafic21052019.jpg
 
Nouveau WRInaute
bonjour à tous:
je suis très content de découvrir cette discussion qui remonte le moral :) .

Je tiens un petit site de psychologie et j'ai moi aussi été fortement impacté par la maj de Mars 2019.
J'avais posé des questions (je remercie d'ailleurs tous ceux qui m'ont donné des conseils) ici : https://www.webrankinfo.com/forum/t...au-core-update-mars-2019.195339/#post-1588584

Mon retour d'expérience à ma modeste échelle:
-le site est jeune (début 2018) avec des pages plus anciennes transférées d'un autre site.
-le nombre de visite augmente très fortement à partir de Septembre 2018 et re-augmente de janvier à Mars 2019
-Grosse chute la semaine du 18 mars d'environ 30%
-Je tente de faire des corrections, des améliorations et la fréquentation remonte de 5-10% mi-Avril, c'est stable depuis.

Dans le détail:
-Les articles généralistes (sur des auteurs en psychanalyse ou sur l'adolescence en général) on été très peu impactés. Ce sont aussi le plus souvent des pages anciennes venant de mon ancien site.
-les articles portant sur des "maladies" psychologiques se sont complètement cassés la gueule: -50% de fréquentation minimum et sont revenus à leur niveau d'Octobre-novembre 2018.

Pour mon cas ce sont clairement les pages "médicales" qui sont touchées. je pense que c'est lié à un prise en compte plus importante des backlinks principalement.

j'ai essayé de faire des choses:
-Stresser et se prendre la tête --> pas de résultats significatif mais cela occupe :)
-mettre une fiche auteur en bas des articles--> aucun d'effet (pourtant je suis psy donc normalement plus "expert" dans le domaine que les articles écrits par des journalistes qui me sont passé devant).
-Régler des problèmes sur le site: création de catégories (sous wordpress), création de sommaires, suppression de pbs avec les pages-images générées par wordpress.
--> pas d'effet sur le positionnement des pages.
par contre le taux de rebond a un peu diminué et je pense que l'"expérience utilisateur" comme on dit est meilleure.

Bref j'en ai profité pour améliorer le site mais cette maj ne récompense pas les pages "bon élève" et semble corriger (pour mon cas) des maj précédentes qui m'avaient avantagé.

Merci à tous pour vos retours en tous les cas, cela fait du bien de ne pas se sentir seul face à l'ogre google (la "mère omnipotente" diraient les psychanalystes).
 
WRInaute accro
@tnikev : je me demande aussi si tout ceci n'est pas une technique psychologique de google pour forcer les gens à améliorer leurs sites.

- Google supprime quelques filtres de qualité ce qui a pour effet de faire remonter de vieux sites pourris
- Ca redonne espoir aux éditeurs de ces sites
- Les sites qui ont chuté sans raison font des modifications pour améliorer des choses (mais ça ne sert à rien)
- Après quelques mois google remet en place ses filtres momentanément supprimés
- Les sites impactés négativement retrouvent leurs positions (sauf s'ils ont tout cassé en tentant d'améliorer les choses)
- Les vieux sites pourris retrouvent leurs mauvaises positions mais les webmasters qui avaient retrouvé espoir se lancent dans des modifications pour tenter de retrouver leurs positions éphémères que google leur avait attribué pendant quelques mois. Donc ils vont améliorer leurs sites.

Au final c'est l'internaute qui est content car les sites sont mieux. Ca a pour effet de tirer la qualité vers le haut.

Moi je touche à rien (je ne publie même plus). J'attends avec impatience le prochain update pour retrouver mon trafic et me remettre au travail.
 
WRInaute impliqué
@indigene, tu oublies que tout cela est de l'intelligence artificielle et u machine learning...

Si tu as quelques bases, tu peux lire ce document guide de google sur le machine learning qui explique la mise en place de système de classement pour Google Play, Youtube, ...

https://developers.google.com/machine-learning/guides/rules-of-ml/

Ce ne doit pas être loin de ce qui se fait sur la recherche.

Tu y remarqueras des itérations, l'ajout et la suppression de caractéristiques (signaux) et des ajustements et lancements fréquents en fonction des résultats... C'est la base des système d'apprentissage et d'intelligence artificiels. D'où l'impression de retour en arrière parfois, un signal ajouté peut s'avérer bon ou mauvais et donc supprimé ou amélioré.

A nous d'être bon sur les signaux pris en compte.
 
WRInaute accro
Sauf que pour l'update de mars 2019 il y a eu des installations de logiciels et modifications de paramétrage. C'est une "mise en production".
L'intelligence artificielle s'adapte au fil de l'eau moyennant quelques paramétrages sur lesquels on peut agir. Dans le cas de cette mise à jour il y a effectivement eu mise à jour concrète. Google a annoncé une mise à jour logicielle du coeur de son algorithme. Ce ne sont pas juste quelques correctifs mais une GROSSE MAJ, une mise à jour MAJEURE.

Pour ce qui est des signaux je réfute totalement car il y a au minimum 600 signaux pris en compte. Même si 10 signaux sont modifiés ça n'aura d'impact que sur 3% du positionnement en considérant que des signaux comptent double par rapport à d'autres. Pour connaitre une chute de plus de 30% ce n'est pas simplement un ajustement de quelques signaux ou alors c'est 100 signaux sur 600 qui viennent d'être modifiés.

Si un signal suffisait à provoquer un tel changement il n'y aurait pas 600 signaux pris en compte par google mais juste une petite dizaine.

Là c'est un gros changement logiciel du cœur de la machine, comme en mars 2018, comme en août 2018, comme les anciens updates de panda ou pinguin, comme caffeine, etc. Je pense qu'il faut maintenant s'habituer à deux updates majeur par an car c'est ce qui se pratique dans la plupart des grosses entreprises informatiques. On appelle cela des "versions". Ensuite il y a des correctifs qu'on appelle des "patches" et qui sont livrés au fil de l'eau ou mensuellement. Google n'a pas réinventé les métiers de l'informatique, il les applique comme tout un chacun.
 
Olivier Duffez (admin)
Membre du personnel
il y a au minimum 600 signaux pris en compte
quelle est la source ? J'en étais resté au fameux 200, un nombre qu'un ingénieur de Google a fini par balancer un jour aux journalistes afin qu'ils arrêtent de poser cette question.
Dans leur doc grand public, ils parlent de "centaines de facteurs" mais on n'en sait pas plus.
 
WRInaute impliqué
Je suis d'accord avec toi sur plusieurs points.
Je t'invite à lire le document que je t'ai posté car tu as toutes les connaissance pour l'aborder notamment la notion de "lancement".

Qui a dit qu'une mise à jour majeure n'est pas l'intégration de nouveaux signaux majeurs comme par exemple la prise en compte de l'EAT de façon algorithmique. Avec des gros extracteurs de données pour "numériser" ce signal ? Un update serait l'ajout d'un gros logiciel qui calcule un signal.

Panda et Penguin furent aussi au final de nouveaux signaux, avec derrière une grosse machinerie pour "numériser" ce signal.

Panda est un signal de manque de qualité qui était externe à l'algo en continu car trop long à calculer à l'époque.

Penguin est un signal sur la qualité des liens reçus par un site qui était externe à l'algo en continu car trop long à calculer à l'époque.

Et ces signaux avaient un impact sur plus de 3% des résultats.

Des mises à jour d'infrastructure et d'ajout de puissance de calculs ont permis de les intégrer en continu au calcul. Encore des "maj majeures".

Tout est signal et ils donnent plus ou moins d'importance à chaque signal (souvent de façon automatisée en fonction des résultats utilisateurs), un signal peut-être la combinaison de nombreuses extractions et mise en commun de données.
 
Dernière édition:
WRInaute accro
quelle est la source ?

Source webrankinfo :
majgoogle.jpg
En 2017 il y a eu 2453 modifications, donc 2453 critères impactés. C'est vrai que j'aurai du utiliser le mot "critère" au lieu de "signal". On peut supposer qu'un même critère a été modifié plusieurs fois. Ça nous donne environ 2000 critères différents modifiés par an et non 600.

Ton histoire de 200 critères date de 2013 : https://www.webrankinfo.com/dossiers/conseils/relancer-referencement
Depuis c'est certainement bien plus.
Si on considère que certaines modifications concernent la même chose, le même critère, je trouve que 600 est tout à fait plausible alors que 200 ça nous donnerait 10 modifications différentes par an pour chaque critère. Je trouve ce chiffre largement exagéré.
 
WRInaute accro
Des mises à jour d'infrastructure et d'ajout de puissance de calculs ont permis de les intégrer en continu au calcul. Encore des "maj majeures".

Ah non ! Une mise à jour d'infrastructure concerne l'infrastructure. Par exemple un SI qui passe du mainframe à une architecture basée sur UNIX. Il n'y a pas de mise à jour du "core algorithm". Core algorithm veut bien dire ce que ça veut dire : cœur de l'algorithm, de la logique. "Core infrastructure" concerne uniquement le matériel et non l'algorithme qui reste ISO fonctionnalité.

Et tu parles de panda et Pinguin sans te demander s'il n'y avait pas de très nombreux critères dans chacun de ces algo. Panda était un algo à lui tout seul, pas un "signal". Panda doit bien représenter à lui tout seul plusieurs centaines de critères de qualité et pour pinguin il doit y en avoir plusieurs dizaines (liens envoyés par des fermes de liens, sites satellites, sites douteux, sites étrangers, etc...)

Certes, certains critères ont beaucoup plus de valeur que d'autres et peuvent représenter peut-être 10% de l'ensemble, mais quand il n'y a eu aucune modification sur le site et qu'il se prendre -30% de chute de trafic ça ne peut pas venir d'un nouveau critère qui se met à représenter 20% de l'algo google du jour au lendemain sans que ça se sache. Et même panda et pinguin ne constituent pas des critères qui représentent 20% chacun. Ce sont des algos qui génèrent une pénalité algorithmique très forte. Ils se basent sur certains critères propres à ces algos. Je pense qu'ils doivent un peu fonctionner comme les outils de scoring qui sont utilisés par les banques et les assurances. En général ils donnent une réponse sous forme de "feu vert, feu orange, feu rouge". Déjà, pour ces outils de scoring, on leur donne en entrée un nombre impressionnant de critères (parfois plus d'une centaine) et personne ne sait réellement quels sont les critères qui sont utilisés. Par exemple l'age de la personne est fournie au logiciel mais on ne sait pas si l'age aura un impact ou non sur le résultat. Pour moi, panda et pinguin c'est du scoring. Ils ont été intégrés dans l'algo pour fonctionner au fil de l'eau. Il faudrait donc ajouter tous les critères qui les composent aux critères natifs de l'algo. Ca fait un nombre impressionnant au final.
 
WRInaute accro
Sachant qu'un signal/critère c'est un gros algo d'extraction de données et de calcul qui peut aussi être mis à jour...
Oui oui, je suis d'accord avec toi sauf que je mettrais pas "signal" et "critère" comme synonymes. Je m'excuse d'avoir utilisé le terme "signal" dans mon intervention alors que "critère" était plus approprié.

Un signal c'est le résultat d'un logiciel de scoring qui va répondre en fonction de certains critères : feu vert, feu orange, feu rouge.

Il doit exister une petite dizaine de signaux, sans doute pas plus.

Mais chaque algo générant ces signaux utilise des centaines de critères.

Exemple : tu reçois un et un seul lien venant d'un site pornographique. C'est sans doute un critère. Mais ce critère n'est pas suffisant pour que le signal de panda soit mis à "feu rouge".
 
WRInaute accro
Les outils de scoring c'est du machine learning...
Pas du tout !
J'en ai déjà utilisé. C'est une boite noire qui reçoit pleins de "critères possibles" en entrée et qui contient un algorithme secret à l'intérieur. Certains critères sont inutiles mais personne ne sait lesquels. Ceci interdit donc à un agent de clientèle de truander le systèmes en saisissant de fausses informations car personne ne sait si une info à un impact ou non et personne ne connait l'algo.

C'est utilisé notamment pour accorder des prêts dans les banques.

Mais ça n'a absolument rien à voir avec un quelconque machine learning ou une quelconque intelligence artificielle. L'algo est tout à fait standard (mais tenu secret). Tu as des critères qui sont rédhibitoires, par exemple si tu es inscrite interdit bancaire, c'est une évidence, mais aussi d'autres critères qui ont un certain poids déterminé d'avance par un cahier des charge. L'équipe qui a programmé cette boite noire connait les règles internes. En général c'est une société qui est externe à la banque pour préserver le secret. Il n'y a pas d'évolution de l'algo en fonction de son utilisation et des données qui lui sont communiquées. Il peut y avoir un paramétrage maitrisé par le client (la banque qui l'utilise) pour favoriser certaines stratégies économiques, mais ça reste très vague et il est impossible de connaitre quels critères seront affectés par un paramétrage. Mais ça reste du paramétrage pur et dur et pas du learning.
 
Olivier Duffez (admin)
Membre du personnel
"signal" est le mot anglais, je préfère pour ma part "critère"
tu confonds les modifications et les critères
mais je ne vois guère d'intérêt à se battre sur le nb de critères, sachant qu'on ne sait pas ce qu'on met derrière ce mot
et qu'avec l'avènement de l'IA, tous les critères ne sont pas connus, pas même des ingénieurs de Google...
 
WRInaute impliqué
Mais ça n'a absolument rien à voir avec un quelconque machine learning ou une quelconque intelligence artificielle.

C'était vrai dans les années 90-2000, plus souvent aujourd'hui... c'est l’avènement de l'IA partout et les banques avec leurs big data n'y échappent pas.

C'est exactement l'évolution qui est décrit justement dans ce doc que je te propose :
https://developers.google.com/machine-learning/guides/rules-of-ml/
avec le passage de l'heuristique au ML...

Jette un oeil c'est vraiment très instructif ;)

"signal" est le mot anglais, je préfère pour ma part "critère"

Le document de Google (https://developers.google.com/machine-learning/guides/rules-of-ml/) utilise le mot "Caractéristique".

 
WRInaute accro
Non, pas de confusion entre critère et modification.
"2453 modifications, donc 2453 critères impactés" si on considère qu'une modification concerne un critère. Pourquoi en serait-il autrement ? Il se peut qu'un même critère fasse l'objet de plusieurs modifications au cours de l'année mais quand même pas 10 fois chacun.
Ou alors ces modifications annoncées ne concernent pas seulement l'algo de google mais également la search console, le front de la search console, d'autres outils google, des modifications liées à l'infra, etc... Je n'ai peut-être pas compris le périmètre.
 
WRInaute accro
C'était vrai dans les années 90-2000, plus souvent aujourd'hui... c'est l’avènement de l'IA partout et les banques avec leurs big data n'y échappent pas.

C'est quand la dernière fois que tu as travaillé dans une banque et plus particulièrement au service des prêts ?
 
Olivier Duffez (admin)
Membre du personnel
une modif peut être une façon de traiter un cas ultra particulier concernant une seule langue dans le monde. Est-ce pour autant lié à un critère de l'algo ?

une modif peut être faite 50 fois dans l'année, ça ne me choquerait pas. Ou alors on compte 50 car c'est fait dans 50 situations distinctes (langues, régions, etc.) mais c'est le même critère.

etc.
 
WRInaute accro
oui, dans ce cas tu as raison
revenons donc à ces 200 critères supposés plus les quelques critères ajoutés ces dernières années. On serait donc à moins de 250.
Ça rend donc les investigations plus simples mais pourtant personne n'a toujours pas trouvé les raisons des impacts pour certains sites alors que par le passé on arrivait à voir assez facilement les cibles qui étaient visées par les updates. Pour moi c'est toujours incompréhensible, aussi bien pour ceux qui baissent que pour ceux qui montent alors que certains de ces sites ne sont plus trop entretenus depuis des années.
 
Discussions similaires
Haut