A qui profite les mises à jour de google

WRInaute accro
Bonjour,
Depuis quelques temps, les messages de webmasters se plaignant de la chute de leur site est en constante augmentation.
Encore apparemment dernièrement avec l'update du 4 sept.
Puisque ces maj sont censées améliorer les serps, ceux qui montent doit être au détriment de ceux qui descendent, normalement!

Le problème, c'est que j'ai l'impression, tout le monde en prend pour son grade!
Je ne parle pas d'une légère hausse presque insignifiante.

Puisque certains perdent au moins 50% de leur trafic et pour ceux qui montent alors?

Pouvez-vous partager?
Si vous ne voulez pas donner d'url mais au moins une capture des stats pour se rendre compte du résultat.
Ce serait déjà un espoir ! :)

Merci
 
WRInaute accro
Peut-être que ceux qui montent n'éprouvent pas le besoin de venir se plaindre sur les forums
Peut-être que ceux qui montent bossent plus que les autres et n'ont pas le temps de venir sur les forums
Ca m'étonne quand même que ceux qui montent soient uniquement les sites avec de très gros moyens. Quand je fais des recherches dans google je trouve toujours les résultats aussi pertinents qu'avant et je vais rarement jusqu'à la 3° page

Ce qui serait intéressant c'est de savoir ceux qui montent, pourquoi ils montent. On étudie bien plus souvent ceux qui baissent pour essayer de comprendre pourquoi ils baissent
 
WRInaute accro
A mon avis c'est plus ceux qui zérotent en dessous du triangle d'or qu'il faut étudier, les premières positions sont tellement instables qu'elles ne peuvent donner une image de ce qui conditionne la stabilité. Perso je ne monte ni ne descend c'est disons déprimant et stable de "moyennage".

Après ici il y a tellement de chercheurs de miracle qui pensent avoir trouvé la carte de l'eldorado sur WRI qui regorge d'astuces intéressantes que c'est pas étonnant qu'il y ai pas mal de sortie de route ...
 
WRInaute accro
Sans parler de trouver des solutions miracles, on est en droit d'espérer un arrêt de la chute , voir une progression (aussi minime soit elle) lorsqu'on essaye depuis des mois de suivre les directives de WRI (entre autre) et de se rapprocher le plus possible de ce qu'attend "normalement" google (contenu, retrait de DC, liens non optimisés etc.).
Malheureusement, en ce qui me concerne en tout cas ce n'est pas le cas.

Chaque MAJ je la subis; Est-ce normal de subir plusieurs fois le panda et le pingouin? surtout quand on bosse pour s'améliorer.

L'impression que ça donne c'est que les experts SEO sont totalement dépassés et même si ils peuvent conseiller sur les choses les plus évidentes, enfin de compte ils ne comprennent pas le panda et le pingouin. On ne sait absolument pas ou plus comme fonctionne google (certainement l'effet voulu). A ce niveau là c'est de l'acharnement...

D'ailleurs personne n'est capable de dire le rôle exact de Pingouin et de Panda. Et se baser sur les propos de Matt ne sert à rien ou presque.

Et je suis un peu du même avis que Passion sur certains points, je pense qu'il y a beaucoup plus de grosses pertes que de gros gains. Et les gains de visiteurs sont beaucoup plus répartis sur différents sites. Certainement un moyen de rendre visible plus de sites. Après je sais pas si c'est un mal, mais de la à retirer 70%-80% des visiteurs à d'autres sites et les persécuter de la sorte (la chute continu)!

Et de l'autre côté certains sites se gavent encore plus (wikipedia, commentcamarche...et les produits google : youtube etc.) et on voit des sites qui font actuellement les mêmes erreurs que celles qu'on a pu commettre et qui font tranquillement leur place dans les SERPS et pompent les notre.
 
WRInaute discret
Je suis bien d'accord avec ce post.
J'ai moi aussi, je fait tout ce qu'il fallait avec mon nouveau NDD et rien, je ne vois jamais d'évolution positive.
J'ai l'impression d'être un Don Quichotte !
La seule chose rassurante, je ne suis pas la seule :lol: !
 
WRInaute accro
noren a dit:
D'ailleurs personne n'est capable de dire le rôle exact de Pingouin et de Panda. Et se baser sur les propos de Matt ne sert à rien ou presque.
Je partage pas totalement ton avis, autant pour le pingouin j'ai vraiment l'impression que le monde SEO est en train de tartiner des tonnes de pages de connerie autant pour le panda c'est pas la même histoire.

Panda est pour moi la dernière modification historique vraiment orienté qualité. La suite c'est du business.

Après c'est assez amusant et sans parler de ton cas en particulier, le monde SEO est très "conservateur" et s'accroche a son NDD, pourtant, les pénalité GG portent sur le NDD et pas sur le site, même si la forme et le contenu en est la source. Bref c'est notre façon de travailler qu'il faut réviser le web est passé a l'heure du jetable alors jetons et spamons ...

Le jour ou on changera tous nos NDD tous les 3 mois en faisant des redirection on verra bien qui couinera quand il faudra payer la note d'électricité ...

Je re-glisse au passage que pour sortir d'un panda j'ai mis 90% de mes pages en noindex avant de les remettre en index (un ou deux mois plus tard) après des modifications ridicules qui visaient a supprimer du contenu ... :wink: Les filtres (pas l'algo) travaillent en décalé par phase donc ce qui fonctionnait fonctionne toujours entre chaque phase.
 
Nouveau WRInaute
zeb a dit:
Je re-glisse au passage que pour sortir d'un panda j'ai mis 90% de mes pages en noindex avant de les remettre en index (un ou deux mois plus tard) après des modifications ridicules qui visaient a supprimer du contenu ... :wink: Les filtres (pas l'algo) travaillent en décalé par phase donc ce qui fonctionnait fonctionne toujours entre chaque phase.

Eh bein j'y avais pas pensé à ça
 
WRInaute accro
zeb a dit:
Après c'est assez amusant et sans parler de ton cas en particulier, le monde SEO est très "conservateur" et s'accroche a son NDD, pourtant, les pénalité GG portent sur le NDD et pas sur le site, même si la forme et le contenu en est la source. Bref c'est notre façon de travailler qu'il faut réviser le web est passé a l'heure du jetable alors jetons et spamons ...

Le jour ou on changera tous nos NDD tous les 3 mois en faisant des redirection on verra bien qui couinera quand il faudra payer la note d'électricité ...

Peut être mais prendre cette douloureuse décision est très difficile. Et les conséquences d'un changement de NDD peut être tout aussi désastreux voir peut nous achever. Et que faire de tous les BL obtenus qui en fin de compte vont être récupérés avec du 301? Et lorsqu'on a pas directement subit une sanction manuelle mais juste algorithmique, n'est-il pas préférable de persister plutôt que de prendre de tels risques? (encore faudrait-il savoir si on est mis définitivement dans une liste rouge etc.)

zeb a dit:
Je re-glisse au passage que pour sortir d'un panda j'ai mis 90% de mes pages en noindex avant de les remettre en index (un ou deux mois plus tard) après des modifications ridicules qui visaient a supprimer du contenu ... :wink: Les filtres (pas l'algo) travaillent en décalé par phase donc ce qui fonctionnait fonctionne toujours entre chaque phase.

De mon côté j'avais surtout mis en noindex toutes les pages vides de contenu, mais très sincèrement je ne suis pas persuadé que panda pénalise si on a peu de contenu sur nos pages. D'ailleurs j'avais déjà constaté que certaines de mes pages plutôt légères (moins de 70 mots) ressortaient très bien, alors que d'autres articles plus complet (plus de 250 mots) étaient dans les profondeurs.

Quoi qu'il en soit toutes ces techniques me semblent bien risquées surtout si il s'agit de notre site "pour bouffer".

je reste encore dans l'idée d'insister et espérer (même si je suis à la limite) tout en travaillant sur de futurs nouveaux projets. Mais l'idée du 301 est toujours une éventuelle alternative, mais j'aimerais vraiment ne pas en arriver là
 
WRInaute discret
Je pense personnellement que les hausses des sites gagnants sont limitées car si par exemple (je dis ca au pif mais j'essaie d'etre un peu realiste) 0.05% des sites perdent 50% de leur trafic suite à une MAJ, et bien ca ne change pas foncierement la gueule des serps. Tous les autres montent d'une position sur ces quelques requetes impactees, pas de quoi exploser leur trafic loin de là ! Mais je peux comprendre qu'on soit paniqué et frustré quand on sent que le moteur vous met à mort alors que vous etes certain de faire de la qualite, ou au moins mieux que les resultats qui sortent. C'est là qu'il devrait y avoir un bureau officiel des reclamations pour prendre en charge les demandes concernant des sites pesant un minimum. Ici on a à faire à un bot qui peut, a priori, passer à cote de sites de qualite. Rien ne vaut un humain, mais bien sur pas un interimaire qui juge un site en 2 min chrono ... Mais rappelons qu'un simple bot peut observer un minimum le comportement d'un visiteur par rapport à un site, et donc reperer rapidement la qualite ou les sites daubés. Et puis il y a les indiateurs sociaux maintenant ... Donc on ne peut pas affirmer vraiment que google se plante. Il faudrait faire partie du staff pour comprendre reellement la machine avec ses tenants et ses aboutissants. Impossible quoi ...
Je connais pas le ou les sites de noren mais son histoire met le doute.
 
WRInaute accro
Le pogosticking devrait être un bon moyen de repérer les bons des mauvais sites, mais je suis pas persuadé que ce critère soit utilisé à sa juste valeur. il me semble que c'est le seul élément vraiment valable pour déterminer si le site répond à la demande (En prenant également le taux de clics sur le nombre d'impression)

Un bureau des réclamations me semble quasi inenvisageable et de toute façon qui oserait aller se plaindre, faut-il encore être certain d'être totalement google friendly

Et le fait que les serps soient surement influencés par les réseaux sociaux gave un peu. Tout le monde n'a pas envie de mettre des dizaines de boutons partout pour obtenir des likes et des partages. Et lorsqu'un site démarre comment fait-il pour rattraper les autres sites en terme de like et de suivi?

Les sites ressemblent à de vrais sapins de noël avec les boutons de réseaux sociaux. Et tous les sites ne sont pas à la même enseigne avec les réseaux sociaux. Certaines thématiques etc. sont plus propices aux likes
 
WRInaute accro
noren a dit:
Le pogosticking devrait être un bon moyen de repérer les bons des mauvais sites, mais je suis pas persuadé que ce critère soit utilisé à sa juste valeur. il me semble que c'est le seul élément vraiment valable pour déterminer si le site répond à la demande (En prenant également le taux de clics sur le nombre d'impression)
ça dépend perso ça m'arrive d'aller voir la suite rien que pour savoir si j'ai pas loupé un truc sans parler du fait que je consulte parfois plusieurs pages pour avoir mon information totale.

noren a dit:
Et le fait que les serps soient surement influencés par les réseaux sociaux gave un peu. Tout le monde n'a pas envie de mettre des dizaines de boutons partout pour obtenir des likes et des partages. Et lorsqu'un site démarre comment fait-il pour rattraper les autres sites en terme de like et de suivi?

Les sites ressemblent à de vrais sapins de noël avec les boutons de réseaux sociaux. Et tous les sites ne sont pas à la même enseigne avec les réseaux sociaux. Certaines thématiques etc. sont plus propices aux likes
pour le côté sapin de noël ça se gère avec un bouton qui met a disposition tous les autres ... et en plus tu gagne du temps de chargement et tu évite le flicage des internautes.
Ensuite perso c'est pas les boutons qui me font des likes ou des +1 mais les pages associées sur les réseaux et là c'est pas non plu l'enfer de publier 2/3 snippets a chaque parution. Mais dans le principe tu as raison il en faut toujours plus pour un peut moins ... :(
 
WRInaute accro
jolm a dit:
0.05% des sites perdent 50% de leur trafic suite à une MAJ, et bien ca ne change pas foncierement la gueule des serps. Tous les autres montent d'une position sur ces quelques requetes impactees, pas de quoi exploser leur trafic loin de là !
+1 je partage totalement cet avis mes variations de trafic sont parfois invisibles dans les SERPs. Ce qui impacte le traf sur une requête c'est 1,2 ou 3 ads en haut voir plus après passé les 5/6 résultats naturel c'est de toute façon le désert.
 
WRInaute accro
Les recommandations de google sont pourtant très simples et n'ont presque pas changé dans le temps :

- faire un site pour l'internaute et pas pour les robots
- ne pas faire de SEO, c'est à dire ne pas chercher à manipuler les serps
- s'occuper de son site et pas de ceux des voisins

En résumé, en travaillant sur son contenu et sur son linking interne, on a déjà suffisamment de pain sur la planche pour produire un résultat non pénalisable par panda ou pingouin. C'est ensuite le rôle de Google de classer les sites dans les serps en fonction de la requête.

Mais voilà, il suffit que google pense qu'on cherche plus à manipuler les robots qu'à apporter une plus-value pour l'internaute et c'est la pénalité. Il suffit qu'il détecte qu'on a fait quelque chose dans le but de manipuler les serps (suroptimisation par exemple) et c'est la pénalité.

Les webmasters confondent souvent la définition même du SEO.
Le SEO c'est une règle de l'art pour faire en sorte qu'un site soit visible dans les moteurs sur les thèmes traités par le site.
Souvent ils croient que c'est chercher des combines pour gagner des places dans le positionnement. Mais il manque l'essentiel.

Sur une voiture on peut ajouter des ailerons, un turbo, avoir une carrosserie profilée, etc... pour tenter d'aller plus vite. Mais si il manque le moteur on n'ira jamais très loin.
 
WRInaute accro
@patapon et @zeb :

peut être pour le pogosticking, cependant google devrait avoir un aperçu déjà suffisamment parlant. Si un visiteur va sur un site qu'il y reste 1s ou 1mn mais qu'il revient dans les serps pour continuer sa recherche, c'est qu'il n'a surement pas trouvé l'info désiré (si ça se produit trop souvent, c'est pas bon). En fonction de ça on peut déjà avoir une assez bonne analyse des pages de qualités pour chaque mots clés.

En se basant également sur le fait que si un utilisateur tape à nouveau une autre recherche (similaire) c'est qu'il n'a également pas trouvé l'info souhaité.

Autre point le nombre de clics par rapport aux impressions. Bon moyen de comparaison pour classer les sites.

le contenu, les titres etc. sont évidemment pris en compte pour un placement dans les serps de départ qui devrait ensuite pas mal moduler en fonction du pogosticking.

mais bon après je conçois que c'est bien plus complexe que ça. C’est juste que j'ai les boules de voir que mes pages qui avaient un taux de rebond faible et un temps de visites élevé se retrouve au fond des serps derrières des forums vides, sites morts ou des me*rdes du genre (similarsites, seotruc, etc.)

@zeb :

Pour ton histoire de bouton je serais intéressé ;) mais j'ai pas pas bien compris comment tu procèdes, pourrais tu me transmettre un exmeple en MP stp :wink:

2/3 snippets? désolé je connais pas ( je me rend compte que j'ai pas mal de lacunes, j'ai été trop laxiste trop longtemps :/ )

@indigene :

Ce que tu dis est vrai mais dans la réalité des faits si tu ne te préoccupes pas de google et que tu fait ton site dans ton coin et pour les utilisateurs, non seulement c'est une erreur stratégique si c'est à but professionnel (il faut avoir de l'ambition) mais c'est également comme ça que tu te retrouves au fond des serps du jour au lendemain sans comprendre pourquoi (voir tu n'es jamais visible).

Si tu t'en préoccupe pas :

Comment savoir que la triplette de bourrin est déconseillé?
Comment savoir qu'il est mal vu de faire des échanges de liens (désolé mais c'est loin d'être aussi évident)
Comment savoir que tu dois avoir un minimum de contenu dans tes pages? moi pendant longtemps j'ai fait des articles court pour aller droit à l'essentiel, ça ma valu un beau panda dans la face (même pas certain que le problème venait de là d'ailleurs).
etc.

Les erreurs possibles sont tellement nombreuses et pénalisées si sévèrement... sans compter celles qu'on arrive même pas à comprendre et à identifier.

Pour pas mal de points, je ne savais même pas que c'était pénalisant avant de me faire taper violemment sur les doigts et je me retrouve à devoir essayer de comprendre google au lieu de penser et de travailler pour mes visiteurs (chose que je pensais faire jusqu'à présent).

Donc très sincèrement l'impression que j'ai c'est plutôt l'inverse. Il faut se préoccuper de google encore plus que jamais.
 
WRInaute accro
noren a dit:
je me retrouve à devoir essayer de comprendre google au lieu de penser et de travailler pour mes visiteurs

Et Google, en tant qu'"intelligence artificielle", essaye de comprendre l'internaute pour lui présenter le meilleur résultat possible en rapport à une requête donnée. C'est ce qu'il a toujours fait et ce qu'il a toujours essayé d'améliorer.

La triplette du bourrin = répétition du mot clé dans l'url, dans le title et dans la balise H1
Mais si tu as un document word à écrire. Est-ce que tu vas répéter la même chose dans le nom de ton document, dans le titre du document en haut de la page, et dans les sous-titres ? Un document word écrit naturellement sera politiquement correct pour google. Alors pourquoi ne pas faire la même chose pour une page HTML ?

La première question qu'il faut se poser c'est par rapport au bon sens

Tout ce qu'on met sur une page HTML est-ce que ça a du sens, et surtout est-ce que ça a du bon sens ?

Ensuite il y a les techniques utilisées et mettre des styles dans le HTML plutôt que d'utiliser du CSS je ne comprendrais pas pourquoi ce serait pénalisant puisque c'est correct au niveau HTML. S'il y a pénalisation ça serait par rapport à un critère de rapidité par exemple. Parfois il faut faire la part des choses et mettre dans un fichier CSS des lignes en plus alors qu'elles ne seront utilisées que sur une seule page du site ça en vient à pénaliser tout le site. Mettre un style directement dans la page HTML c'est peut-être pas propre mais plus efficace dans certains cas.

Si on chute dans Google il faut juste cherche à comprendre pourquoi et il y a forcément une raison logique.

Il arrive que google mette en place quelque chose et qu'il se trompe, mais ça ne reste jamais bien longtemps en place. A vous lire il semblerait que les résultats présentés par google ne sont pas du tout pertinent. Mais mettez-vous à la place d'un internaute lambda. Quand vous faites une recherche dans google, combien de fois avez-vous besoin d'aller jusqu'à la page 3 des résultats pour trouver ce que vous cherchez ? Le jour où ça sera dans plus de la moitié des cas alors vous pourrez affirmer que Google n'est pas pertinent.
 
WRInaute accro
Bon en fait j'étais partie pour faire encore une longue réponse, mais on lit et on se dit toujours les mêmes choses sur le forum et sa sert donc à rien d'épiloguer sur la pertinence etc. :mrgreen:

Juste un petit mot quand même, un doc et un site sont 2 supports et façon de faire totalement différents. le travail en terme d'ergonomie, de visibilité, de développement et de référencement ne sont pas les mêmes. Et pour certains points les docs ne sont même pas concernés.
 
WRInaute discret
Je vais y aller de ma petite remarque amère :)

Pourquoi ils ne mettent pas un p*t**n de filtre pour empêcher d'avoir plusieurs résultats du même site ???
Dans mon domaine par exemple "station de ski familiale", "station de ski de charme" qui sont des requêtes assez populaires (enfin à mon échelle) => 3 premiers résultats identiques !

Non mais il faut arrêter un peu, ils ne peuvent pas exclure un site des 2 résultats suivants au moins par exemple :
site 1
autre site 1
autre site 2
site 1
autre site 3
autre site 4
site 1

N'importe qui peut faire ça et avoir cette idée là, mais eux non ?
Franchement je trouve ça bien de regrouper les résultats d'un même site, mais mettre 3 fois le même à des positions successives...
 
WRInaute accro
noren a dit:
peut être pour le pogosticking, cependant google devrait avoir un aperçu déjà suffisamment parlant...
Oui tu as raison, (je me rend compte que je me suis mal exprimé en donnant un exemple contraire) sur le nombre d'internautes il a forcement un bon élément de classement au final. Je cherchais juste a souligner qu'une recherche continuée n'était pas forcement toujours synonyme de mauvaise page cible.
 
WRInaute accro
noren a dit:
@zeb :
Pour ton histoire de bouton je serais intéressé ;) mais j'ai pas pas bien compris comment tu procèdes, pourrais tu me transmettre un exemple en MP stp :wink:
On peut même en causer en public ;-) j'en reparle sur ce sujet suite a une intervention de Leonick.
A la base ça part d'une histoire pour éviter le flicage des internautes par les réseaux mais dans mon cas c'était car je travaillais sur la vitesse de chargement des pages et je voulais diminuer les reso DNS vers des serveurs externes (donc les réseaux sociaux).
Comme tu le comprendra aisément je n'affiche qu'une image qui si on la clique s'occupe de charger les boutons et tout le merdier qui n'est pas indispensable au chargement de la page.
 
Discussions similaires
Haut