Nouveau WRInaute
Il me semblait bien qu'il y avait des trucs bizarre depuis le weekend dernier (pour moi depuis le 15 juillet) ... certains l'avaient remarqué ...d'autre non.
http://searchengineland.com/google-panda-4-2-is-here-slowly-rolling-out-after-waiting-almost-10-months-225850

En tout cas je remarque une fois encore la mauvaise foi de google qui a répondu négativement à de nombreuses questions de Barry Schwartz (seoroundtable) cette semaine au sujet des mouvements des serps... pour aprés confirmer la mise à jour !!!
 
Nouveau WRInaute
Ce qu'il serait intéressant de savoir maintenant, c'est si ceux qui ont été touché voient une sortie de pénalité car si j'ai bien vu une montée du positionnement suite à cette update, je ne voie toujours par ressortir ma page qui a été pandatisée !!!
 
WRInaute discret
Bonjour,

Perso , j'utilise siteliner[point]com, plutôt intéressant à plusieurs points de vues.

Mettre autant de temps ( une dizaine de mois), c'est quand même assez étrange.
Est ce que c'est en partie à cause du dév que cela suppose ou est ce qu'ils vont mieux faire que la dernière fois !
 
WRInaute discret
Arf siteliner, il me dit que j'ai 26% de DC en interne. Quand je clique dessus, dès qu'une expression qui fait trois mots est répétée sur une autre page il considère que c'est du DC :/

Et après toutes les modif faites depuis plusieurs mois (pas de DC technique ==> pagination des pages de catégories, fiches produits uniques, non indexation des urls de déclinaison, neutralisation de la navigation à facettes, correction en supprimant de l'index, puis en le bloquant des /fr/ et /en/ qui s'étaient mis automatiquement, redirection 301 pour les ulrs changées supprimées mais que Google retrouve encore, ...) siteliner me donne toujours le même taux ^^

Le fait de faire la MàJ sur une dizaine de mois, c'est peut être à la fois pour brouiller les pistes au niveau SEO, mais aussi pour faire un roulement ? Un site crawlé aujourd'hui ne sera peut être que re-crawlé dans 10/12 mois ?
 
Olivier Duffez (admin)
Membre du personnel
Ouily a dit:
Cela concerne-t-il les sites francophones ?
oui

Newbipastaper a dit:
Le fait de faire la MàJ sur une dizaine de mois, c'est peut être à la fois pour brouiller les pistes au niveau SEO, mais aussi pour faire un roulement ? Un site crawlé aujourd'hui ne sera peut être que re-crawlé dans 10/12 mois ?
c'est pas tout à fait ça : le site peut être crawlé souvent (tous les jours) mais l'impact Panda ne se fera qu'à la prochaine mise à jour
 
WRInaute discret
D'après ce que je peux voir, c'est entre le 17 et le 18 qu'a eu lieu la MAJ, j'ai un concurrent qui s'est (re)pris une claque le 17 qui s'est intensifier le 18 Juillet. Donc je dirai qu'elle a commencé en France dans l'après midi du 17.

Et plusieurs sites ont progressé plus qu'habituellement également à cette période là (je le précise vu que le concurrent étant déjà derrière, il ne peut pas justifier l'augmentation du classement de ceux qui ont montés, donc d'autres ont du baissés).
 
WRInaute impliqué
Bonjour,

Excellent ! ils sont vraiment très forts chez Google, comme cela celui qui est au fond des SERPS depuis 11 mois
et qui a fait les correctifs nécessaires depuis plusieurs mois, il va encore attendre des mois avant d'améliorer son trafic organique une vraie pantolonnade comme d'habitude ! bref 2 ans pour sortir des griffes du Panda
 
Olivier Duffez (admin)
Membre du personnel
@dudo : et c'est guère mieux avec Pingouin, alors celui qui cumule les 2 il peut dire au-revoir au trafic SEO Google :-(
 
WRInaute discret
@WRI, à ce tarif là tu changes de marque et tu recommences ... surtout si tu es en ecommerce.

Moi limite je regrette de pas l'avoir fait avec la refonte du site ... M'enfin j'ai bon espoir de remonter dans les SERPs ==> désormais le contenu et là, pas de DC, la technique et là, le ménage a été fait dans les BL's et là on fait pas mal de netlinking propre (guest bloggin, la 15aine d'annuaires intéressants, article sponsorisé, ... tout en faisant attention à l'équilibre trust / citation de majestic ^^) Si avec ça on ne remonte pas dans les mois qui viennent, je ne comprends plus rien ...
 
WRInaute occasionnel
cando123 a dit:
si votre ami vous a quitté je peux le ou la faire Revenir rapidement et votre Amour sera durable et sans fin.
Monsieur le spécialiste du SEO "Anti balle", Panda m'a tiré dessus alors que je l'aimais, merci de le faire revenir rapidement, et faites que maintenant il soit gentil :lol:
Mais que fait la police ? :roll:
 
Nouveau WRInaute
j'avais donc bien raison pour toutes les dates auxquelles j'annoncais des mouvements,

J'observais deja par le passé que les serp européens changent avant tous les autres,
- je suis convaincu qu'ils ont testé l'algo le 15, rollback le jour meme.
- les deploiements se font souvent dans les "petits pays" (comme la france, du point de vue US) en premier
- en gros on leur sert de laboratoire pour les updates US
 
WRInaute accro
WebRankInfo a dit:
@dudo : et c'est guère mieux avec Pingouin, alors celui qui cumule les 2 il peut dire au-revoir au trafic SEO Google :-(

Ca nous en fait 3 quand même sur le dos: Pinguin, Panda, quality update.

Je pense que ceux qui se sont pris Pinguin sans les premiers PANDA ont aussi subit des modifs de positionnement avec les Panda suivant. J'en conclut (peut-être un peu vite) que des parties de Pinguin sont aussi reprises dans Panda).
Pourtant, je reste convaincu que les pénalités sont (ou non) vérifiées très régulièrement. Les différentes versions ne font que changer (modifier) les différentes pénalités, ce qui explique les fortes modifs de positionnement à chaque fois. Et comme pas grand monde n'a trouvé les raisons (ou les non raisons), les modifications semblent ne rien apporter sur le total d'un site en terme de visiteurs. Faut analyser page par page ... (et c'est quasiment impossible).

Newbipastaper a dit:
En parlant de panda, quelqu'un a un bon outil à suggérer pour checker le duplicate content en interne ?

Merci :)
Le duplicate est une source de déclassement mais n'a rien à voire avec Pinguin (et les versions de Panda qui ont suivies). Un site cassé par Pinguin dès le début a été complètement réécrit et pour le copier maintenant faut être plutôt fort ... il doit probablement rester des parties sur ce site en DC mais juste quelques phrases.

Le DC n'est pas lié à Pinguin (et probablement plus à Panda).
BotCow a dit:
cando123 a dit:
Votre guérisseur traditionnel ( Grand maitre)

Je suis pas sûre que le désenvoutement soit le meilleur moyen de sortir du pénalité Panda
D'un autre coté, on a perdu le spécialiste :oops: https://www.webrankinfo.com/forum/t/le-referencement-par-la-magie.55096/
 
WRInaute impliqué
Pour ma part, j'ai littéralement atomisé un site pour savoir !
et comme dirai Jean Gabin Maintenant Je Sais, Je SaiS QU'on ne Sait Jamais !

Histo
J'ai passé un site de 7000 pages sur un système de filtres anti-panda, en placant la barre très très haut,
après filtrage, j'ai conservé 30% de pages pas plus dont 29% des articles.

- Des articles en majorité au-delà de 1000 mots avec un vocabulaire très riche
- des sujets avec des liens NF vers des sommités du web et gentils backlinks propres de ces derniers
- et dans le respect des normes SEO et de Google et de tout ce que vous voulez.

Bref, tout ce qu'il faut pour faire craquer le Panda !

Et bien Rien, nada, le site n'a pas bougé d'un millimètre dans les bas fonds des Serps, je considère
donc définitivement que tous ces filtres sont une manipulation de l'esprit collectif
et non pas créés dans le but d'une amélioration de la qualité des Serps.
Google est incapable de discerner un texte de qualité dans son contenu et sa forme, donc vous vous pouvez lui donner à manger n'importe quoi... le Google-WEB repose toujours sur le lien et rien d'autre.

Une fois que l'on a compris cela, on peut passer à autre chose dans la vie ou partir en vacances car à ce
petit jeu idiot, on peut y laisser sa santé, son portefeuille et les années qui défilent devant un écran
 
Nouveau WRInaute
Une fois que l'on a compris cela, on peut passer à autre chose dans la vie ou partir en vacances car à ce
petit jeu idiot, on peut y laisser sa santé, son portefeuille et les années qui défilent devant un écran
+1 @Dudo
 
WRInaute discret
c'est de toute façon très difficile de jugé ce qui fait évoluer les propsitions réelement. C'est loin d'être en temps réel. Le maître mot est paticence.

Je crois que partir en vacance n'est de loin pas la plus mauvaises des solutions.
 
WRInaute discret
dudo a dit:
le Google-WEB repose toujours sur le lien et rien d'autre.

Si c'est le cas, alors le black hat a encore de beaux jours devant lui, car cela signifierait que seuls les pénalités manuelles feraient office de "gendarme" ...

Au final, je pense que c'est quand même un peu plus complexe que ça. J'ai déjà été déclassé par le passé, et cela semblait dû au Panda, avec du DC interne un peu partout (voir posts plus haut où j'explique mes corrections).

Au final, le SEO ressemble plutôt à l'ensemble de critères : technique, edito, popularité. Je rajouterais un élément non négligeable : la concurrence. Car si tu as les 3 critères précédents, mais que ton concurrent principal les a aussi, bah s'il est mieux classé que toi aujourd'hui, ça va être chaud pour le déloger.

Par contre je pense quand même que le lien est prépondérant dans les critères. Le n°1 de mon secteur à un site où la note technique est proche de 0, du DC interne en veux tu en voilà, de l'édito pas très propre. Bah vu qu'il est arrivé le premier, qu'il est super populaire et qu'il a la dose de backlinks, c'est le number one sur toutes les requêtes, ou presque, du secteur.
 
WRInaute impliqué
@Botcow
paticence c'est très jolie cela mérite de rentrer dans le dico

Cela dit, la patience a des limites, pour moi la coupe est pleine, entre l'abus de position dominante (pour moi c'est 2 sites fermés dans le ecommerce) , j'en passe et des meilleurs encore, le seul mot qui compte aujourd'hui pour que cette boite devienne crédible c'est :

la Transparence.

Ce jour là, on en reparlera
 
WRInaute accro
La transparence serait synonyme de retour du spam comme il y a 5 ans

Déjà, wikipedia perdrait en visibilité, ça permettrait à plein d'entreprise de prendre un bol d'air frais et de respirer un peu.
Je ne comprend toujours pas pourquoi google place wikipedia aussi bien. C'est pourtant simple, quand quelqu'un cherche la page de wikipedia sur un sujet quelconque il va toujours taper dans sa recherche "sujet wiki" ou "sujet wikipedia". Si ce n'est pas ce qu'il cherche, d'aller sur wiki, alors il tape simplement "sujet". Donc pourquoi lui proposer systématiquement wiki ? Ca ne rapporte rien à google, il n'y a pas d'adsense sur wiki.
 
WRInaute accro
dudo a dit:
je considère
donc définitivement que tous ces filtres sont une manipulation de l'esprit collectif
et non pas créés dans le but d'une amélioration de la qualité des Serps.
Je suis encore plus radical que toi: je pense que toute cette mascarade repose sur une stratégie qui, sous couvert de crise, favorise toujours plus les gros acteurs du Web mais surtout les actionnaires de Google.
 
WRInaute impliqué
@salva

je plussoie à 200%, c'est évidemment le fil conducteur, on est bien loin de 2004, ou GG venait pleurer dans les boites mail de prendre ses bannières ce qui lui a permis de construire son empire.
 
WRInaute discret
salva a dit:
Je suis encore plus radical que toi: je pense que toute cette mascarade repose sur une stratégie qui, sous couvert de crise, favorise toujours plus les gros acteurs du Web mais surtout les actionnaires de Google.

En gros pour toi plus tu fais d'adwords plus ton référencement naturel est meilleur ?
 
WRInaute occasionnel
Newbipastaper a dit:
En gros pour toi plus tu fais d'adwords plus ton référencement naturel est meilleur ?
Pour en avoir fait l'expérience, et d'autres avec moi, j'en doute...
Où alors il faut mettre la barre, très, très, haute...
Je rejoins l'appréciation de salva concernant les gros acteurs du Web et les actionnaires de GG.
 
WRInaute accro
Newbipastaper a dit:
En gros pour toi plus tu fais d'adwords plus ton référencement naturel est meilleur ?
Rholala, faut tout expliquer :D Mais non, je ne fais pas d'adwords.

Grosso modo, Google se sert des nouveaux sites pour faire monter les enchères.
 
WRInaute discret
M'enfin votre réflexion n'a pas de sens.

Si Google favorise les "gros acteurs du web", il ne va pas le faire gratuitement ... admettons amazon ne fait pas d'adwords ni adsense, ni shopping, bref ne ramène aucune thune à Google. Pourquoi Google le favoriserait il s'il ne touche rien ?

Ca ressemble plus à la théorie du complot tout ça ...... et ça remettrait surtout en cause l'existence de ce forum et de toutes les agences SEO ^^

Une théorie disant surtout que Google se laisse dépasser par la complexité de ses algorithmes m'irait un peu mieux. Du coup il tatonne quand il fait ses MàJ. En gros les googlebots seraient presque devenus des IA !
 
WRInaute impliqué
@Newbipastaper

la complexité de ses algorithmes = une légende urbaine

On peut s'étonner au contraire au vu des 3000 employés et de son armée de développeurs et ingénieurs logiciel des résultats obtenus.

On peut prendre un exemple très simple pour sortir du moteur de recherche, et ne pas facher les fans,
ils sont équipés je crois d'un parc de 43 000 ordinateurs avec un super ordinateur quantique, l'ampleur de ses infrastructures, de sa base de données lui offre une bien meilleure intelligence du contexte, que tout autre
moteur du web, on est d'accord ! sérieusement est ce que quelqu'un ici laisserait son site traduit en anglais par son moteur de traduction ?
--- Ce qui cloche ce n'est pas les infrastructures ou le manque de données c'est la qualité des Algos de traduction tout simplement
 
WRInaute occasionnel
Un exemple sans aller chercher les très gros comme amazon.
Un site bien français qui n'a jamais développé son interface et se contente de faire des pages redondantes sur toutes les villes de France, pas de balises titres, etc.
Mais qui par contre est un fidèle et ancien "client" d'Adwords, se trouve classé en premier et quoi qu'il arrive, sur de simples requêtes comme "amis à strasbourg", ou ailleurs...
Tant mieux pour lui, mais je pense qu'il y a une sorte de prime à la fidélité Adwords, ou alors tout ce que je lis ici sur les techniques de SEO, tombe à l'eau...
 
WRInaute accro
Newbipastaper, le principe: l'argent doit circuler en boucle fermée (interpréter le phénomène au niveau international). Il suffit ensuite de récupérer la plupart des nouveaux prospects qui gravitent autour de cette boucle.
 
WRInaute occasionnel
Quel rapport avec Panda ?

La plupart de ceux qui se sont fait prendre savent, sciemment ou non, qu'ils ont abusé.
Tout le monde veut toujours une part plus grosse et n'hésite pas à mordre son voisin pour ça. Que ce soit sur le web ou ailleurs, il faut fixer des regles pour que tous ait un minimum de chance sinon ce n'est pas la peine de se lancer dans l'aventure.
ça sert à rien de jalouser, ça ne fait pas avancer les choses. Oui c'est répugnant, oui ceux qui ont plus de fric s'en sorte mieux - parce qu'ils peuvent manipuler, sudoyer... C'est comme ça partout, c'est pas nouveau...
 
WRInaute occasionnel
freestyle83 a dit:
Quel rapport avec Panda ?
Tu as raison, alors pour recentrer et faire simple, j'ai la conviction qu'au delà d'un certain investissement Adwords, tu es à l'abris de Panda et de tout les autres animaux.
Difficile de connaître la hauteur de la barre, pas forcement des millions d'euros, mais je peux t'assurer que quelques dizaines de milliers d'euros ne suffisent pas pour avoir le vaccin... :wink:
 
WRInaute occasionnel
Marie-Aude a dit:
Comment peut-on savoir "non sciemment" ?

lol c'est vrai; En fait, je pensais à la limite entre l'optimisation et la suroptimisation. Manipuler les données et en abuser sciemment ou ne pas s'en rendre compte et dans ce cas on ne sait pas... Donc ma phrase n'a pas de sens :mrgreen: Et en prime ça n'a pas non plus de rapport avec Panda :arrow:
 
WRInaute accro
aproximite a dit:
Un exemple sans aller chercher les très gros comme amazon.
Un site bien français qui n'a jamais développé son interface et se contente de faire des pages redondantes sur toutes les villes de France, pas de balises titres, etc.
donc pas de sur-optimilation. c'est parfois le secret :wink:
 
WRInaute occasionnel
@ybet : d'après toi, donc le syndrome du plombier présent avec le même duplicate sur toutes les villes, villages et banlieues de France, et dont les spécialistes du SEO parlent souvent ici, c'est bidon.
Pas la peine d'essayer d'optimiser ses sites, balises, contenus, etc.
Prendre l'annuaire de toutes les communes de France, on duplique, et on y va...
On peut y aller gaiement ?
C'est ça le secret :roll:
 
WRInaute accro
aproximite a dit:
@ybet : d'après toi, donc le syndrome du plombier présent avec le même duplicate sur toutes les villes, villages et banlieues de France, et dont les spécialistes du SEO parlent souvent ici, c'est bidon.
Pas la peine d'essayer d'optimiser ses sites, balises, contenus, etc.
Prendre l'annuaire de toutes les communes de France, on duplique, et on y va...
On peut y aller gaiement ?
C'est ça le secret :roll:

Pour du pauvre contenu (ce qui semble le cas), c'est Hawkeyes (ancien modérateur,nettement plus costaud que moi) qui a donné la technique il y a quelques années sur ce forum. Peu de contenu = pas de meta descrition (on laisse gg se démerder qui reprend une partie du contenu): title un peu optimalisé (en automatique= plombier + ville)

Je sais, c'est un peu spécial mais c'est la méthode utilisée par toutes les usines à GAZ: hôtel + ville, camping + ville, plombier + ville, ... et ca passe (en plus d'adwords quand ca passe ... ou pas).
Quelques uns de mes clients sont des hôtels, camping, chambres d'hôtes, ... pour le magasin informatique. J'en bloque quelques uns (en faisant monter mes clients), il y a quelques années on avait viré les parasites sur hôtels bouillon (une petite ville du sud de Belgique) avec 8 sites de 3 Webmasters ... en envoyant des liens mais ca nous rapportait rien et on s'est tous les trois fais cassé les sites qui participaient quelques années plus tard. Du coup ... https://www.google.fr/search?sourceid=navclient&aq=&oq=hotel+bouillon& ... .........0. Deux pubs en haut, i parasite tout au dessus (je rejoint ton analyse) et le reste.
J'ai quelques clients dans l'hôtellerie. Impossible pour eux de travailler sans ces parasites. Petit exemple pour un petit village à quelques kilomètres de la frontière (en France): https://www.google.fr/search?sourceid=navclient&aq=&oq=hotel+bouillon& ... el+willers

Un petit lien amical, connait pas les gérants (mare des parasites) pour retrouver le site en premier mais devant la pub.
http://www.booking.com/searchresults.html?tab=1&origin=hp&error_url=%2 ... nth=2016-7
Tu peux vérifier toutes les dates: jamais de chambres disponibles.
 
WRInaute impliqué
@ybet
faire des pages redondantes sur toutes les villes de France, quand ça passait ! pour les nouveaux c'est plus compliqué


Faites le test aujourd'hui! moi je l'ai fait résultat nul, ensuite j'ai rajouté du contenu très riche pas vraiment mieux, je crois que certains mastodontes sont sur liste blanche, il ne faut mélanger tout. Un autre exemple qui parle prenez les grands médias français, vous savez avec quoi ils font une grande partie de leur trafic, (ce n'est pas moi qui le dit mais un DR web) avec du DC, s'il vous plait, les dépêches de l'AFP, et pourtant ils reçoivent tous les mêmes, est ce que Google s'énerve pour autant pas du tout ! et c'est un apport de trafic considérable
 
WRInaute occasionnel
@ybet : sincèrement, merci beaucoup pour cette réponse exhaustive, cela explique beaucoup de choses concernant les résultats actuels de la recherche et de la pertinence de certains résultats sur GG.
Dans ce cas Panda, puisque c'est le sujet de ce post (quelque soit le numéro que l'on veuille lui attribuer) n'est qu'un clown néfaste, une sorte de "Joker à la Batman". :mrgreen:
 
WRInaute accro
Euh, les gars, vous n'avez pas l'impression de verser un tout petit peu dans le mode "NWO" / "Illuminati".
A lire certaines réponses, on se demande presque si Google ne serait pas une initiative Alien... :mrgreen:

aproximite a dit:
"amis à strasbourg"

Ca c'est de la niche de chez niche, quand même :mrgreen:
 
WRInaute passionné
Des algos, google en a un paquet destinés a l'anti-spam. Mais cela ne veut pas dire que l'impact est important , il est plutot faible pour la plupart. Certains sont toutefois assez virulent (mots cles cachés dans des onglets par exemple). Quelques rares sont quasi mortel quand il s'agit d'abus flagrants que Google détecte de mieux en mieux.

Google classe un site sur quelques critères majeurs seulement :
- volume de page
- nom de domaine
- url
- titre
-H1
- image (et en fonction de leur taille et contexte) ou tout autre type de fichier (pdf, video…)
- liens externes pointant sur le site et ratio de type d'ancre (mot clé, url ou nom de domaine, caractères non alphanumérique…)
- originalité du template selon la concurrence du genre de site
- présence de lien périmés (sanction)
+ au conditionel, comportement des internautes.

Je pense que globalement, google determine le trafic d'un site selon sa structure (taille) et la concurrence, et il est ensuite très difficile d'en bouger même avec d'importantes modifs interne. Mis a part l'accroissement important et régulier des liens qui le pointe (BL) ou l'acroissement important du nombre de pages, le site semble etre immuablement abonné a un trafic limité.

Enfin, les serps sont une vitrine publicitaires a l'attention du visiteur, et wikipédia fait partie de la belle vitrine qui doit donner confiance. Wiki est un pion pour que google se donne plus de sérieux pour le visiteur, et Google organise ses résultats naturel en grande partie dans ce sens.
 
WRInaute occasionnel
HawkEye a dit:
Euh, les gars, vous n'avez pas l'impression de verser un tout petit peu dans le mode "NWO" / "Illuminati".
Tu as sans doute raison, on voit bien là, la qualité de ton expertise, merci de nous la faire partager ici.
D'ailleurs à la requête "illuminati à Strasbourg" j'ai obtenu une réponse pertinente : GG est magique, même pour les niches, et même si je n'ai pas essayé "niches à Strasbourg"... :wink:

@longo600 : ta réponse ci-dessus est très claire et recentre parfaitement ce débat, mais alors pourquoi se préoccuper d'un quelconque Panda X (c'est le thème de ce sujet), puisque de toute façon, à l'évidence il n'y a rien à faire pour changer le processus de classement des résultats ?
 
Nouveau WRInaute
Et donc pour, encore, essayer de revenir a panda 4.2

De mon coté j'observe sur le web (site seo) et sur tous mes sites sans exceptions, une légère remontée du traffic émanant de google. Rien de formidable qui va me sauver de la crise du web que j'ai évoquée - loin de là - mais disons entre 10 et 20% de hausse.

Cette update m'a plutot l'air d'une légère dépandatisation globale (ajustement pour une fois favorable des paramètres qui nous maintiennent, nous petits webmasters, dans le fond du panier) .
Sa seigneurie google nous jette des miettes, un peu d'air pour respirer encore 6 mois.

Il faut dire que plusieurs critiques de la dernière update sont remontées dans les médias, je pense ea au twit "google est censée supprimer le spam pas tuer des business" ... "qui n'ont aucune idée de ce qu'ils ont fait de mal" ; assez bien relayé dans la presse "hors communauté seo". Limite "badbuzz panda" pour google.

Egalement, cette histoire de màj qui prend des mois c'est simplement de la fumée pour être sûr que personne ne pige ce qui se passe au juste. Cette màj a eu lieu plus tot que le w-e qu'ils annoncent également, en tout cas pour la france. La màj est finie, ces effets sont légèrement positifs, point barre.
 
WRInaute discret
Moi aussi ça bouge un petit peu, et dans le bon sens. Mais difficile de dire si c'est Panda ou autre chose car je fais pas mal d'actions en ce moment.

Pour l'analyse de Longo, je le rejoins. Au final, pour remonter dans les SERPS, il faut bosser, bosser, bosser, ... surtout quand on a des concurrents bien installés.
 
Nouveau WRInaute
Je suis de ceux qui pensent que l'algo de google est bien moins sophistiqué qu'ils essayent de nous le faire croire.
Comme plusieurs ici, par essais "séparés" de mes sites sérieux, j'observe que google a toujours une vision complètement algorithmique, robotisée, du contenu d'une page. Il voit les mots en <h1>, le titre, comprend ce qui est en haut ou en bas, ignore ce qui est en hidden, et c'est a peu près tout.

Avec des poncifs comme "améliorez la qualité de vos pages" ils ne font qu'essayer de former vos esprits à redouter une IA qui n'existe pas, et donc à ... Améliorer la qualité de vos pages :)
C'est de la manipulation ; envoyer une raclée a tout le monde, et puis "ah mais notre robot a vu que c'etait pas de bonne qualité" du coup tu vires la moitié de tes pages "au cas ou" et puis on ajuste le curseur dans l'autre sens et puis "ah ben vous voyez on vous l'avait bien dit, google a apprécié que vous ayez 30% de pages en moins, notre IA est super maline".

Toi tu dis merci a google d'avoir récupéré 20% de traffic sur ton site amputé de 30% de ses pages, tu as donc 10% de revenu en moins, et pendant ce temps là le mec qui n'a touché a rien il a 20% de traffic en plus sur 100% de ses pages, il a 20% de revenus en plus. Rejouez ce jeu pendant 5 ans et vous avez un web qui fait disparaitre les petits sites. Après on s'étonne qu'il n'y a plus que les gros en première page ! Fatalement ils ne courent pas comme des poulets dès que GG aboie.
 
WRInaute accro
dudoc a dit:
est la qualité des Algos de traduction tout simplement
Tu dois pas avoir tout suivi :wink: (Au passage, on reprend PANDA et autres "pénalités").

Depuis début 2010, Google a nettement amélioré son algo. Panda pénalyse les sites (ou pages) de faible contenu: et c'est bien ce qu'il fait sauf qu'on est juste des dégâts collatéraux.
Petit rappel:
1. en 2008: beaucoup de sites parasites ont sauté pour leur faible contenu en utilisant des logiciels de traduction automatiques. Pauvre contenu ne veux pas dire peu de contenu! Ca a surtout bloqué en langue anglaise et virer un paquet de copieurs. Au passage, il avait bloqué toutes les fautes d'orthographes "SEO". Personnellement, je faisais une trentaine de visites par jour avec la "fote" EXCELL (deux ll) que j'avais sciemment intégré sur une page de mon cours ... existe plus :oops:
2. Depuis environ 2010, Google s'est nettement amélioré en créant des synonymes. On reprend la ville de Bouillon mais cette fois avec restaurateur. La recherche est restaurateur Bouillon https://www.google.fr/search?sourceid=navclient&hl=fr&ie=UTF-8&rlz=1T4 ... r+bouillon mais dès le début, en tapant la recherche, Google te trouve une faute d'orthographe et propose comme résultat restaurant.
Ca pose notamment des problèmes sur cette recherche https://www.google.fr/search?sourceid=navclient&aq=hts&oq=&hl=fr&ie=UT ... enouillere (évidemment, ceux qui visent la recherche pense au vêtement, ce que Google paralyse en grosse partie). Autre exemple "mémoire AECC" (uniquement utilisée dans les main Frames) que Google refuse, tout simplement parce qu'il pense que c'est une faute d'orthographe et remplace par ECC. Et comme par hasard, PANDA arrive fin 2010. En gros: Google a réussit (en partie) à mettre des thématiques sur le vocabulaire en bloquant des mots qu'il ne connaît pas ou en intégrant des sites sur le mot qui n'ont rien à voire avec ce que cherchent ... les Webmasters.

Une traduction automatique n'est jamais correcte (tout simplement par ce que toutes les langues reprennent le même mot avec plusieurs significations différentes. IL y a plus de 20 ans, je travaillais pour Philips dans une usine de fabrication et le boulot de moi et de mes collègues était de créer les manuels techniques (uniquement en anglais) et les modes d'emploi (Français, Anglais, Néerlandais et Allemand). Un jour mon boss décide de rationnaliser et essaye de passer par des entreprises de traduction professionnelles du Français -> l'anglais. Résultat incompréhensible. Du coup, on a pris un dictionnaire de traduction technique (chimie, physique, électronique, médecine, ...). Les traducteurs avaient pour chaque terme technique repris la première traduction (mélangeant nos termes d'électronique avec d'autres). En thématisant, Google évite ce genre de faute mais aussi détecte des mauvaises traduction.
Le problème n'est pas l'outils de traduction mais justement ces thématiques ... et les termes mal casés dans les différentes branches (quand Google ne les bloque pas complètement).
 
WRInaute impliqué
@ybet
Libre à chacun de penser que Google maitrise l'intelligence artificielle ou est capable d'analyser la valeur sémantique d'un texte, mais pour moi, non, j'ai testé sur 700 textes de plusieurs niveaux avec du rédactionnel universitaire jusqu'à de la bonne bouillie et pour moi ils sont à l'Ouest, je ne dis pas d'ailleurs qu'ils ne sont pas capables de le faire mais ce n'est pas leur objectif premier comme déjà expliqué longuement sur ces 2 pages.

La preuve, des pionniers universitaires et des sommités comme Kristian Hammond et Larry Birnbaum commencent à maîtriser parfaitement le sujet, car ils le démontrent avec leur société, leur travaux depuis 30 ans et avec leurs algos
qu'ils sont capables de donner des vrais neurones à un ordinateur et au passage avec des budgets 1 000 fois moins importants.
 
WRInaute accro
dudo a dit:
@ybet
Libre à chacun de penser que Google maitrise l'intelligence artificielle
Ne me fait pas dire ce que je n'ai pas dis. Si tu relis, il y a Google maîtrise beaucoup mieux qu'on pense et ... Google se plante dans ses catégories mais aussi dans beaucoup de termes.
Evidemment que si je tape restaurateur + ville: je pense à restaurant ... si je tape restaurateur fauteuil: les résultats sont immédiatement plus logiques. JE DEFEND PAS GOOGLE (sauf qu'à force ca commence à m'énerver de lire sur WRI des webmasters taper à fait sur Google chaque fois que leur site descend ... il y a 10 ans des ecommerces annonçaient déjà que Google avait tué leur entreprise ... c'est pas nouveau):
je rappelle les problèmes actuels (pour PANDA mais aussi pour d'autres problèmes). D'ailleurs dans cet exemple de restaurateur https://www.google.fr/search?sourceid=navclient&aq=&oq=restaurateur&hl ... .........0. parle effectivement de restaurateur dans le sens restaurant (et plus mobilier, tableau, ...)
C'est cette catégorisation qu'il faut analyser pour chaque thématique: pour PANDA, pour PINGUIN (cette fois au niveau des liens) et notre boulot est d'adapter les sites en fonction des modifs de Google (d'abord comprendre) ... pas à Google de s'adapter à nos sites.
PS: sur mes sites, c'est 1/6 de visiteurs par rapport à l'avant Pinguin (sauf que comme d'habitude j'essaye de comprendre ... et pas pleurer ou gueul*ler contre Google). ET C'EST BIEN le but de ce forum: référencer son (ses) sites le mieux possible.
 
WRInaute impliqué
@ybet

Personne ne pleure, personne ne remet en cause le SEO, on constate c'est tout ! et on constate quoi ? que les règles du jeu changent en permanence et que tout est fait pour bloquer les actions SEO, il n'y a plus de visibilité, timming PANDA 18/24 mois au minimum,

et c'est guère mieux avec Pingouin, alors celui qui cumule les 2 --> dixit Olivier : il peut dire au-revoir au trafic SEO Google, c'est simple à comprendre pas de blabla, et c'est une analyse sensée pas un coup de gueule ! et on a tout de même le droit de le dire sur un forum SEO !

Et c'est cela qui ne va plus, le SEO ne sert plus à rien sur un timing aussi long ! Il est où le Panda en temps réel ? (car il est opérationnel bien sûr, mais ce n'est pas l'heure de le sortir) et tout le monde peut comprendre pourquoi !
Maintes fois dit sur le web : "google est censé supprimer le spam pas tuer des business sur toute la planète" mais de plus censé l'ignorer.
 
WRInaute accro
dudo a dit:
que les règles du jeu changent en permanence et que tout est fait pour bloquer les actions SEO
Dans l'ensemble on est bien d'accord: c'est juste la méthode de réagir et d'analyser qui est différente :wink:
Sauf que dans les différentes sanctions, on oublie souvent les premières bases ... et finalement on s'enfonce encore plus.
Patrick.
 
WRInaute passionné
Les propres intérêts de Google sont parfois divergents. Le plus important pour Google, c'est d'offrir à l'internaute une première page de résultat la plus intéressante possible. Mais aussi, tirer le meilleur parti financier possible sur cette première page par la suite.

Il est vrai que Panda a été quand même initialement bienvenue, il a permi d'éliminer des pages statiques sans contenu ou avec juste le titre et la balise H1 modifiée du type (ndd/categorie/serrurier_montauban.html) H1= "aucune réponse sur serrurier montauban" . Pour la traduction et les fautes, je ne suis pas assez compétent pour l'effet Panda puisque je ne les utilises pas.

Par contre, sur le moteur premsgo, j'ai une table avec tous les mots possibles unique (TABLE_TOUS_MOTS) et le nombre d'occurrences total sur toutes les fiches pro et toutes les pages web (total occurrence du mot concerné). Il est donc facile, a partir de la phonétique associée au mot (la phonétique va faire ressortir plusieurs fiches du même mots) de faire deux comparaisons :
- l'orthographe a partir d'un dictionnaire
- l'usage courant (la fiche choisie et donc le mot "usuel" est celui qui a la meilleure occurrence. C'est cette technique dernière que semble utiliser Google, puisque même sur des mots non courant ou qui ne sont pas dans le dictionnaire, google a tendance a proposer un mot proche (c'est parfois agancant mais il est impossible de faire mieux pour le moment).
Petit exemple:
- MOT | Occurrences totales
fote | 3 560
phaute | 2 435
fothe | 964
faute | 17 783 560
il est facile de voir que la dernière fiche comporte le mot correctement orthographié.

Par contre, les dernières évolutions de Panda que l'on ne connais pas me semblent assez infimes, ceux qui ont depuis le début modifié et améliorer leurs pages et contenu n'ont plus beaucoup a craindre.

La guerre des positions, c'est uniquement pour les grosses boites sur des requetes très très concurrentielles et a très fort trafic, dont le changement de la 1ère à la 2eme place peut se traduire par des millions d'euros de chiffre d'affaire. Là éffectivement, la finesse du SEO prend toute sont ampleur et le moindre changement de Panda est a prendre au sérieux.

Pour les autres, il vaut mieux tenter de ne rien faire, ou aller dans la finesse de l'ergonomie, le graphisme, l'attrait d'ensemble, bref, travailler des critères de clarté et de confort de l'internaute que d'aller changer des balises pour juste le moteur…

Je serais curieux de connaitre l'impact écologique et énergétique de Panda, car à l'échelle planétaire de Google, il y a du avoir des milliards de pages disparues, et donc beaucoup moins de ressources machine pour les serveurs coté hebergeur et coté Google.
 
WRInaute accro
longo600 a dit:
... que d'aller changer des balises pour juste le moteur...
Descendu par Pinguin ET les 2 quality update (et au passage quasiment chaque fois les mises à jours de Panda depuis la première version de Pinguin). Pas de changer les balises: pondérer leur placement.

Pour le moment, je retrouve un site d'avant le quality. La technique est de virer les liens de contenu en en transférant en annexe (fin de contenu) tout en gardant les mots dans le contenu et (de mémoire), c'est ce que j'avais supprimé sur au moins un site à la sortie de Pingiun il y a deux ans. En plus, le seul site qui a progressé en 2015 par rapport à 2015 a été modifié de cette manière mi-2014 (mais comme il m'apporte peu de visiteurs, j'avais même pas vérifié). C'est probablement une piste pour ceux qui utilisent des fiches et les lies entre elles. Ca sauve pas le site mais le permet de revenir (un peu) visible.
Pour les gros sites qui montent, c'est un peu normal: plus de pages donc plus d'entrées et vu les tailles, obligation de travailler avec une structure en arbre.
 
WRInaute accro
Google veut que les résultats soient naturels. Et pour que ce soit naturel il faut éliminer le SEO de l'équation.

Comme il ne peut pas vraiment l'éliminer il fait tout pour le gêner et l'intelligence artificielle de Google elle réside dans le fait de savoir mettre des bâtons dans les roues du SEO.

En étant plus intelligent que lui on arrive à comprendre comment ça fonctionne :
A la moindre modification Google réagit. Une page se trouve en position 10 de la première page de résultats, on change le title, elle tombe en page 16 donc très très loin. Et puis quelques jours après elle remonte en position 20 des résultats. Si on a rechangé le title entre temps on va la voir chuter en position 30 puis ensuite remonter en position 19.

En gros, ce que fait google c'est que pendant 2 mois, suite à une modification qui touche un aspect SEO, la page va fluctuer. C'est fait expres.

Et à chaque fois il faut deux mois avant de pouvoir constater les effet de la moindre modification. Donc celui qui fait des tests d'optimisation SEO il est mort.

L'idée pour être plus intelligent que Google c'est avant tout de savoir ce qu'on fait et puis de le faire et de ne pas s'occuper de ses positions et des répercutions dans les classements.
Si on pense que telle ou telle modification sera bonne à la fois pour l'utilisateur et pour le positionnement alors il ne faut pas hésiter et il faut le faire.
Mais chaque fois qu'on fait une modification en pensant "moteur" en premier c'est forcément voué à l'échec.
Le plus important à la base c'est :
- la structure du site (en arbre comme l'a indiqué ybet)
- la structure de la navigation (ergonomique, simple, instinctive)
- la structure des liens internes (toujours lier des pages ayant un rapport entre-elles)
- la structure des pages (avec balisage H1, H2, H3...)
- faire des liens vers d'autres pages en bas des articles
- répéter la navigation dans le footer pour éviter à l'utilisateur d'avoir à remonter en haut de la page
- varier au maximum les ancres de liens qui ne font pas partie de la navigation
- Agrémenter les pages d'un maximum de contenu plaisant pour l'utilisateur (illustrations, vidéo, liens de téléchargements, mises en formes variées avec des zones encadrées et couleur de fond différent pour faire ressortir certaines parties du contenu

Quand tout ça c'est clean on peut s'occuper du profil de liens.
Il faut qu'il soit le plus varié possible avec à la fois des BL nofollow et des liens follow. Des ancres sur le nom de domaine ou sur la marque et d'autres sur des mots optimisés et d'autres sous forme d'images, d'autres avec des morceaux de phrase plus longs. Il faut que le BL proviennent de sites de renommées, de petits sites de seconde zone, de forums, de blogs, de commentaires, etc... Le mot d'ordre c'est VARIER

Si on fait tout ça sans s'occuper de Google pour quelles raisons google nous descendrait avec un panda ou un penguin ?
L'idée c'est de faire du SEO sans donner l'impression de faire du SEO. Car Google il fait la guerre au SEO bien plus qu'au spam.
 
WRInaute accro
indigene a dit:
pour quelles raisons google nous descendrait avec un panda ou un penguin ?
L'idée c'est de faire du SEO sans donner l'impression de faire du SEO. Car Google il fait la guerre au SEO bien plus qu'au spam.
OPTIMISTE :wink:
Et Google fait pas la guerre au SEO, sauf que nos méthodes sont reprises en ... spams: dégâts collatéraux.

Bonne analyse : reco.
 
WRInaute passionné
indigene a dit:
En étant plus intelligent que lui on arrive à comprendre comment ça fonctionne :
A la moindre modification Google réagit. Une page se trouve en position 10 de la première page de résultats, on change le title, elle tombe en page 16 donc très très loin. Et puis quelques jours après elle remonte en position 20 des résultats. Si on a rechangé le title entre temps on va la voir chuter en position 30 puis ensuite remonter en position 19.

En gros, ce que fait google c'est que pendant 2 mois, suite à une modification qui touche un aspect SEO, la page va fluctuer. C'est fait expres.

Et à chaque fois il faut deux mois avant de pouvoir constater les effet de la moindre modification. Donc celui qui fait des tests d'optimisation SEO il est mort.
+1
Depuis bien des années, GOOGLE DETESTE QUE L'ON CHANGE LE TITRE D'UNE PAGE => ne pas le faire est la meilleure option, celle-ci va descendre en effet et mettra des mois a revenir (6 mois env en 2010, aujourd'hui, je sais pas).
indigene a dit:
Quand tout ça c'est clean on peut s'occuper du profil de liens.
Il faut qu'il soit le plus varié possible avec à la fois des BL nofollow et des liens follow. Des ancres sur le nom de domaine ou sur la marque et d'autres sur des mots optimisés et d'autres sous forme d'images, d'autres avec des morceaux de phrase plus longs. Il faut que le BL proviennent de sites de renommées, de petits sites de seconde zone, de forums, de blogs, de commentaires, etc... Le mot d'ordre c'est VARIER
+1 aussi. Des liens en nofollow ne sont pas obligatoire, mais varier oui.

Sur mon site de 10 millions de pages, j'ai entrepris pas mal de modifications ces derniers temps et fait des essais en grandeur réelle. Pas de bol, en même temps que le dernier update, j'ai commis une grosse bourde sur des liens interne (répartition sur deux nouveaux serveurs dédiés) et je me suis retrouvé avec 60 000 mauvais liens, et donc une sanction. Et en même temps, Google a aussi buggé (si si, ca existe, comme partout) et a fait ses propres erreurs de liens. Le site a chuté régulièrement, de semaine en semaine, malgré la correction des erreurs.

J'ai donc entrepris de grosses modifs chaque semaine :
- suppression des onglets
- supression des mots cles tag non visibles
- ancres d'une série de liens enlevée des mots clés et incluant des sigles ( >>), ces ancres sont suivies du texte "naturel" qu'il y avait avant. ex :>> avocat paris 12
- essai de suppression de grosses parties de liens ou de texte annexe

L'objectif était de savoir si des zones dans mes pages n'étaient pas mal considérées par Google, et de vérifier a grande échelle si les ancres diversifiées pointant sur les mêmes pages étaient préférables a des ancres toujours les mêmes et partout.

Le trafic est vite remonté, et la remontée est constante. Vu qu'en parallèle il y a la correction des liens erronés , il est difficile de savoir précisément l'effet de chaque mesure, mais la remontée depuis 6 semaines n'est pas vraiment linéaire en fonction des essais de modifs. Là ou l'effet a été le plus flagrant, c'est la suppression des onglets et tag ( je ne sais pas des 2 lequel etait néfaste), et les ancres diversifiées.

La remontée continue de jour en jour, et le trafic est quasi revenu d'avant le dernier update ( et il n'y a plus que 3 000 erreurs de liens qui seront terminées dans 3 jours).

Je constate chez la concurrence des annuaires d'entreprise qu'ils ont pris de grosses claques pour la plupart, et en même temps, ils sont quasi tous passés aux numéros surtaxés...
 
WRInaute occasionnel
Y-en a qui ont testé l'effet des modifications de H1 , H2 ?
Parce que quand vous parler de titre, vous parlez du "title" ?
 
WRInaute passionné
oui @freestyle83, j'ai testé, ca ne pose aucun problème. Il s'agit bien de la balise "TITLE" qu'il faut éviter de changer.

On peut tranquillement changer les balises Hn et tester diverses versions du leur contenus, en fonction des objectifs, viser par exemple plus précisément la longue traine avec la balise H1. Les balises H2 et H3 ont un effet moindre, et google fait souvent varier leur effet ; parfois (rarement) la balise H3 est plus prise en compte que la H2, ou l'inverse.

Ce n'est jamais le cas de la balise H1 qui est TRES importante et fortement noté chez Google.
Chez tous les autres moteurs aussi, Premsgo y compris. :)
 
WRInaute discret
Google déteste peut-être qu'on change le title d'une page ... mais par moment, quand tu t'es loupé au début, tu n'as pas le choix :/

Sinon d'accord sur ce que dit Longo d'une manière générale. En fait faut bosser et encore bosser sur un max de critères sans sur optimiser. In fine, une fois que le niveau de qualité du travail est là, que ce soit en édito ou en net linking, le reste, c'est la quantité.
 
WRInaute occasionnel
Merci pour vos retours,
Et moi qui n'osait pas touché mes titres(Hn) par peur d'être éjecté!
J'ai justement fait l'expérience hier, je vais bien voir ce que ça donne :)
 
WRInaute discret
Pour test sur un ecommerce
j ai modifié des titles dans 2 catégories différentes,
Une catégorie a plongée comme le souligne Indigène, mais l'autre est remontée en prenant 2 positions de plus.

Je n'ai pas géré les deux de la même façon.
La catégorie qui a plongée, j'ai juste remodeler le title .
Pour la deuxième, j ai fait par étapes:
- réadaptation du contenu de la page avec une intégration de navigation pour expliquer les produits.
- enrichissement de la page

2 semaines après, j'ai modifier et les urls de la catégories (30% de caractères en moins)
- Correction du title pour une meilleur compréhension des pages ( produits techniques)
- segmentation Gproduct pour le forcer sur ces produits

Là oui, j'ai un changement positif.
 
WRInaute passionné
Lynard a dit:
2 semaines après, j'ai modifier et les urls de la catégories (30% de caractères en moins)
Comme tu as changé l'url, ce n'est plus la même page pour Google, ceci explique cela…

Cela dit, cela confirme que si l'on a besoin de changer un TITLE, on peut changer d'url et effectuer une redirection de l'ancienne url vers la nouvelle avec un effet positif, et que si l'on change le titre sur une même page (même url), Google sanctionne.
 
WRInaute passionné
freestyle83 a dit:
Merci pour vos retours,
Et moi qui n'osait pas touché mes titres(Hn) par peur d'être éjecté!
J'ai justement fait l'expérience hier, je vais bien voir ce que ça donne :)
Si la concurrence est rude, ce n'est pas certain de gagner des places. Dans ce cas, on va placer dans la balise H1 des mots clés plus précis sur la longue traine et sur les autres balises Hn des compléments (synonymes ) de mots sur le sujet. En théorie, l'effet est plutôt positif en général (sauf si cela vous deplace dans une zone trop concurrentielle pour vos petits petons ^^qui peut rétrograder votre page).
 
WRInaute occasionnel
Merci longo600 :)
Perso, je préfère prendre les miettes, c'est plus facile à se placer, y-a moins de monde et ça me convient en terme de trafic.
Sur les grosses requête, on prend le risque de se frotter aux gros, qui ont les moyens ne nous plomber la g****le en un rien de temps ! Je reste dans ma cours, lorsque je serais paré, on changerais peut-être d'avis :)
Fin du HS

Pour revenir au Panda, je sais pas si la mise à jour à eu lieu encore parce que je n'ai rien vu de fluctuant sur mon site !! Des mois .... trop vague comme déploiement !
 
WRInaute accro
Newbipastaper a dit:
Google déteste peut-être qu'on change le title d'une page ... mais par moment, quand tu t'es loupé au début, tu n'as pas le choix :/

Ben si...
1. Passé l'ancienne page en noindex, follow
2.Création d'une nouvelle page avec nouveau title et même contenu
3.Changer tous les liens du site pour pointer vers la nouvelle page
4.Modification de l'url de la page dans le sitemap

Et surtout ! Ne faire aucune redirection 301 de l'ancienne page vers la nouvelle page.

Google va pense qu'il s'agit d'une nouvelle page et il va l'indexer avec le bon title et en plus lui donner un prime fraicheur à la page.
A près quelques temps l'ancienne page disparaitre de l'index et on peut même demander sa suppression plus rapidement via GWT
 
WRInaute passionné
@indigene , tu es sur de ton coup?

Si je me loupe dans un titre, je le change, mais la page avec (url legerement différente ) et je fais une redirection de l'ancienne page avec le mauvais titre vers la nouvelle page avec le BON titre… Sinon, je risque de prendre du DC si je laisse les deux pages avec le même contenu…

non???
 
WRInaute impliqué
C'est bien tous ces précieux conseils SEO de ces dernières pages, cela permet de se remettre en question et de pondérer, moi j'ai beaucoup de mal avec un des mes sites qui n'est pas vraiment copain avec Panda et qui me l'explose, http://goo.gl/8XGX2T et je ne comprends pas pourquoi, le CMS est fait maison, pas forcément optimisé, mais modifiable, avec environ 800 articles entre 500 et 1500 mots, pas de DC, essai de structure en silo, vise essentiellement les nouvelles techno, mais aussi les sports de l'extrême et le patrimoine architectural de notre pays par ex.
Si vous avez une idée quelque chose d'énorme m'échappe ou me bouche la vue, il y a eu du nettoyage sur ce site, peut-être pas assez, mais je ne comprends plus, si quelqu'un peut me donner son avis sur ce cas !
 
WRInaute impliqué
Bonjour,

Bonne remarque ! en même temps c'est une structure assez classique de Webmag, avec une liste de liens internes vers les articles, comme beaucoup le font, mais je peux rajouter du texte avec une mise en avant d'un billet par ex. mais pour moi le site est touché dans son ensemble avec acharnement comme souvent d'ailleurs
 
WRInaute accro
C'est effectivement une méthode standard mais, comme beaucoup de petits sites de vente en ligne: photo avec lien et texte de substitution + juste à coté même lien avec même Anchor.
Je sais pas pour Panda mais pour Pinguin et les 2 quality update de cette année, c'est pas forcément les liens qui ont fait chuté les pages MAIS LA METHODE de les mettre.
 
WRInaute impliqué
Effectivement ! c'est vrai que de toute façon ce n'est pas optimum, mais hyper modulable pour moi donc je peux aller capter un autre texte de substitution pour enrichir, voir supprimer aussi le lien sur image sur cette page
 
WRInaute impliqué
En parlant de liens, je ne sais pas si vous avez regardé le code source de Le Monde, ils utilisent une technique très particulière d'obfuscation de liens dans une balise data-href, dont je ne comprends pas l'intérêt, un avis la dessus ?
 
WRInaute accro
Idem je constate quelques mouvements négatifs de mon côté. J'en ai plein le dos de chuter à chaque MAJ malgré mes efforts.
 
Nouveau WRInaute
On voit clairement des genre de "essais erreurs" depuis le 15/7 et uniquement en zone francophone (j'ai des sites en zone us)

Pour moi ce qu'ils font est simple : ils ont une "liste" de paramètres nouveaux a tester, on laisse tourner 2 jours, on regarde si ca rapporte plus ou moins en adsense, et une fois tous les paramètres testés ( ce qui fait que certains montent 2 jours, puis reviennent, puis baissent 2 jours), google choisira l'algo qui maximise ses revenus.
 
WRInaute accro
olaquetal a dit:
ce qui fait que certains montent 2 jours, puis reviennent, puis baissent 2 jours

C'est pas ça. Google a déposé des brevets pour brouiller les cartes et rendre illisible tout aspect de son algorithme. Que ce soit le webmaster qui modifie quelque chose ou que ce soit Google qui modifie un paramètre ou un aspect de son algo, il y a une fluctuation dans les serps avant que le positionnement ne se stabilise.
Je pense que cette fluctuation peut durer plusieurs semaines (jusqu'à 2 mois).
Ca rend les choses indéchiffrables et les secrets de google impossibles à percer. Et quand on y arrive enfin, les paramètres ont déjà changé donc les SEO travaillent toujours sur des aspects déjà obsolètes de l'algo. C'est ça l'idée et ça semble fonctionner pas trop mal pour google car personne n'a toujours rien compris à panda et à penguin pour pouvoir s'en sortir rapidement.
 
WRInaute passionné
Vu que je suis dans le rattrapage d'erreurs 404, je remonte depuis des semaines. Mais je constate, malgré les vacances qui occasionnent une baisse Adsense, un forte baisse du RPM. C'est vraiment dans les choux.
Je pense que Google effectue des tests et des modifs d'algo non pas sur Panda ou autre Penguin, mais probablement pour augmenter ses propres revenus dans ses résultats de serp au détriment des "partenaires" Adsense.

Il suffit de faire baisser le trafic des sites sur ce qui pourrait rapporter un peu plus a Google.

Bref, je "pressent" que Google effectue des manip en ce sens… Je peux me tromper, mais depuis 19 ans que je fais cet exercice d'analyse, mes pressentiments m'ont rarement trompés. Plus ca va, moins ca paye...
 
WRInaute impliqué
longo600 a dit:
Plus ca va, moins ca paye...

C'est intéressant comme hypothèse et très réaliste, en fait GG anticipe la chute des revenus publicitaires et même sa disparition en tout cas sous cette forme et sur le web, ce qui explique aussi son extrême diversification, c'est juste un cas d'école classique en économie, le reste est bien sûr un fabuleux jeu de communication
 
Nouveau WRInaute
Je suis tout a fait de l'avis de longo600

La mise a jour actuelle consiste a tester , puis a (re)mettre en avant, les sites qui rapportent a google car les revenus sont en chute libre.
Et adblock sous ios9 ne va rien arranger a leurs revenus mobiles, pendant ce temps la facebook se marre !
 
WRInaute discret
Plus ça va moins ça paye ... il ne faut pas oublier non plus que tous les jours qui passent ramène un nombre énorme de nouveaux sites.

Au final, c'est la concurrence qui grandit, et donc le jus est forcément dilué.

De mon côté, j'ai au moins 5/6 nouveaux e commerce sur mon secteur depuis que j'ai repris cette activité il y a deux ans et demi.

Du coup, depuis que je mets le nez dans le SEO, j'essaie tout simplement d'aller plus vite que mes concurrents => acquérir des BLs plus rapidement, mettre du contenu plus fréquemment, être conforme SEO plus vite qu'eux quand il y a des nouvelles règles, ...

Bon alors là vu que je suis pour l'instant dans les "choux", ça ne se vérifie pas niveau CA. Par contre, je suis une 51 expressions clefs. J'ai gagné en moyenne 7 places depuis que je me mets à fond dessus. Loin d'être suffisant, puisque ma position moyenne est de 33.5 Mais je ne désespère pas d'arriver dans le top 10 d'ici la fin d'année :p

Bref, attendons quelques mois pour voir le réel impact de ce Panda 4.2 ^^
 
Nouveau WRInaute
Pour ma part depuis la mise à jour de Panda j'ai eu une perte de 30% de mon positionnement (j'utilise Yooda) les 2 premières semaines après Panda et la, depuis 2 semaines, j'ai récupérer tout mon positionnement, voir même un peu plus...
Pour info suite à la baisse j'ai fait 0 modifications, j'ai pas passé 1 minute sur le ref nat.
La prime à la fainéantise ? ;)
 
WRInaute discret
BambouFrais a dit:
La prime à la fainéantise ? ;)

Le nouveau filtre Google Paresseux v1.0

paresseux.jpg
 
Nouveau WRInaute
Et toujours la même chose, je sais que je me répète,

Grosses montées ( dans les 20%) suivies d'un retour au status quo voir légère baisse (-5%) et ce en cycle environ tous les 2 jours.

J'imagine que google essaye de me faire comprendre que je vais monter mais comme quelqu'un le dit, noye ca sous des hausses/baisses incompréhensibles et qui durent depuis bientôt un mois.

Je ne remarquerai rien si ce n'etait complètement hors des tendances (jour de la semaine, heures, congés), donc des hausses là ou il devrait y avoir des baisses, en particulier.
 
Nouveau WRInaute
Je ne sais pas s'il reste des webmasters actifs sur ce forum :) mais

grosse claque ce week-end, et ce lundi, après une semaine plutot a la hausse. Et ce sur 4 sites ayant des thematiques diverses.
 
Nouveau WRInaute
J'ai aussi une baisse de 20 % depuis 4 ou 5 jours après une poussée fin juillet de 35 %
C'est encore positif mais cela va-t-il le rester ?
Pourtant les mots clé remontent...
 
WRInaute occasionnel
Ici c'est l'inverse, légère baisse puis remonté depuis dimanche.
Mais je n'y prête plus attention (disons que ça ne m'inquiète pas), faut voir l'impact sur le long terme, car google joue au yoyo.
 
Nouveau WRInaute
Voilà quasi un mois que le panda tant attendu est sorti...

J'ai bien compris qu'il serait ultra lent mais certains voient-ils quelque chose ? J'ai l'impression qu'il n"y a pas de frémissement, nulle part dans le monde... Je me trompe ?

J'ai bien des changements sur mon propre site mais ils peuvent tous être la conséquence du travail de ces dernières semaines, difficile de les attribuer au panda du coup !
 
WRInaute discret
J'ai l'impression que justement il ne sera pas visible de la communauté SEO ... vu qu'elle travaille tous les jours sur ses propres sites, difficiles de voir si les progressions ou baisses sont imputables à Panda ou pas ^^ Sauf si un aimable référenceur a envie de tester et de laisser son site sans aucune modif ni amélioration, ni net linking pour voir les effets ^^

Personnellement, mon site progresse dans les positions depuis la mi-juillet ... mais je bosse actuellement beaucoup dessus.
 
WRInaute impliqué
Un des ingénieurs de chez Google a parlé de "raisons techniques" pour évoquer la lenteur de la maj. Une hypothèse : ils pensaient sortir cette maj avant les vacances d'été, et ils l'avaient annoncé. Puis ca a pris du retard et finalement au lieu de dire on retarde, ils ont dit c'est en cours mais très lent... Et en fait ca commencera en Septembre lors de leurs retours de vacances, 1 an après la dernière maj.
 
Nouveau WRInaute
Je n'en peux plus de google et de ses mises à jour !
Depuis une semaine tous les mots clé s'effondrent une fois de plus pour laisser leur place aux toutes grandes enseignes (certaines ne vendent même pas le produit sur lequel elles sont positionnées en top position ! Elle est où la pertinence alors ?

J'ai aussi remarqué que si j'arrive à me positionner en top position j'y reste trois jours grand max avant que Am..N se positionne dessus... Au départ ils positionnaient deux pages, now la tendance c'est trois... Bientôt toute la première page que pour eux ! Et c'est sans compter les 3S, la Red, etc... en embuscade après.

Je me demande bien à quoi cela sert encore de bosser, plus j'en fais, pire c'est !
 
WRInaute discret
Salut Titi-Lee,

Sur mon secteur c'est la même, les gros généralistes trustent pas mal de positions. Par contre, j'ai deux trois concurrents, tous spécialistes dans mon domaine, qui sont en première page, dont un qui trust la première sur quasiment tous les mots clefs, principaux comme longue traîne.

Du coup en fait je m'efforce de placer mes actions pour être meilleurs que les spécialistes, les gros je m'en fiche de toute façon on ne pourra pas faire grand chose.

Mais dur quand même :/
 
WRInaute accro
Comme j'ai répondu en MP à quelques "débutants" (ne le prenez pas mal) sur ce posts, quelques pistes (c'est un résumé pour ceux avec qui j'ai échangé des contacts).

Le premier problème depuis (on va dire) Pinguin est la limitation des mots (clés) sur Google. J'ai déjà expliqué que Google fait l'amalgame en 1 mot sur restaurant et restaurateur ... En gros tout passe sur restaurant. Ca change automatiquement dès que on tape restaurateur fauteuil (quelques uns qui ont posté ici ont eut l'exemple). Et (pour deux ... sur ce post ou d'autres), il y a un synonyme de pijama ... que Google reprend comme un terme générique (restaurant, chambre d'hôte, ...) sans le mot (exemple) vêtement ou nuit. C'est une première piste. Plus question de passer sur un mot (j'y arrive encore dans certains cas mais ca devient depuis quelques années très difficile). Ce n'est pas PANDA mais PINGUIN (et le quality UPDATE). La technique est de modifier la cible SEO vers une requête en deux mots.
Ce qui en plombe 2 ou 3, c'est justement ce 'nouveau' aspect de Google.
Le deuxième problème vient des méthodes de liens dans les sites de vente en ligne (image avec ALT) et liens avec même texte dans le lien juste ensuite ... j'ai déjà conseillé mettre l'image ensuite du lien et ... sans lien et sans Anchor. Une analyse via le cache de Google est un peu ma spécialité (Madri dira oui :mrgreen: ) mais une page avec que des liens est casse gueule .
Le troisième problème vient des liens (au passage, j'emmer*de les gourous du référencement qui annonçent que les liens en bas de la zône de vue sont déclassés par Pinguin: c'est FAUX, mais ca leur rapporte une espèce de notorioté -> donc finalement de l'argent). LE problème de Pinguin est les liens sauf que:
1. le lien va vers une page (souvent plusieurs) et pas vers une page globale qui va vers le site (ou le chapitre ... la catégorie de produit). La grosse erreur est de reprendre (cas d'un E-commerce) la liste de tous les produits de la même catégorie en navigation à partir d'une fiche produit.
2. reprendre un contenu en lien avec pas les mêmes mots (même diséminés dans le contenu): là c'est quality update.

Panda ne détruit plus de sites ... sauf pour des webmasters imbéciles et Pinguin reprend de toute façon PANDA. Quand aux mises à jours, c'est en grosse partie FAUX pour des sites standards: ca bouge en fonction des modifs sur le site avec d'abors des montées - descendes très brusques de parfois plus d'un mois. Google met Panda à jour, simplement pour faire le buzz, et les webmasters (qui lisent pas WRI mais m'envoient des MP) ne corrigent pas leurs sites.

Vous espérez gagner 100% de visiteurs en plus avec une mise à jour? sans rien changer sur le site?

Ben non ... (et au passage ... on est une petite dizaine (pas réellement professionnels mais réellement compétants) à donner des pistes sur des posts ou par MP .... et jamais suivis (au moins 90%).

Newbipastaper a dit:
Salut Titi-Lee,

Sur mon secteur c'est la même, les gros généralistes trustent pas mal de positions. Par contre, j'ai deux trois concurrents, tous spécialistes dans mon domaine, qui sont en première page, dont un qui trust la première sur quasiment tous les mots clefs, principaux comme longue traîne.

Du coup en fait je m'efforce de placer mes actions pour être meilleurs que les spécialistes
Pour être meilleur que les spécialistes .... :mrgreen: On parle pas de référencement mais de gros sites (et ... un site de 300.000 pages avec d'autres sites pour l'aider ... impossible en direct.
Newbipastaper a dit:
les gros je m'en fiche de toute façon on ne pourra pas faire grand chose.
Lit et met en application! le post du dessus.

Un petit site ne vaincra pas les grosses machines commerciales mais peut passer (pas premier mais bien placé: surtout en requêtes en 2 mots). Je fais plus de ventes en ligne mais ta réflexion est complètement HORS SUJET ... achête des pubs et ne fait plus de référencement ou modifie ton site

PS: désolé de me fâcher (encore une fois en quelques années depuis 2008, ca m'arrive pas souvent) mais là il y a trois webmaster que j'ai conseillé gratuitement par MP (ou même sur des posts), qui n'ont rien corrigés .... et pleurent. J'ai parfois l'impression (comme d'autres anciens qui donnent des conseils de prendre des heures pour RIEN). Une analyse de site, c'est un gros quart d'heure, répondre (par MP ou sur le post), c'est aussi une bonne dizaine de minute: 45 minutes de mon temps qui ne sont pas facturés (et c'est surement pas mon but sur WRI). A condition que ceux qui ont des problèmes mettent en application (au moins en partie) sur leur site ce qu'on (suis pas le seul) leur explique.
Webmaster dans les années 90, c'était ... Title et description + une panoplie (un bourage) de mots clés: c'est plus le cas.
 
Discussions similaires
Haut