WRInaute accro
Bonjour

Alors j'ai l'impression qu'on parle beaucoup des pénalités manuelles et comment s'en sortir, et en fin de compte assez peu des pénalités algorithmiques.

Lorsqu'on a une pénalité manuelle, généralement tant qu'on a pas viré tous les liens factices on garde la pénalité, mais qu'en est-il de la pénalité algorithmique?
Faut-il également virer tous les liens "factices" pour en sortir ou le fait de nettoyer progressivement peut limité la pénalité et faire remonter?
y a t-il des retours d'expérience?

Dans mon cas, j'ai retiré et désoptimisé pas mal de mauvais BL, je continu ce travail depuis mai 2013 mais je ne vois aucun résultat (j'ai même continué de chuter). Le pingouin d'octobre n'ayant rien changé.

Lorsqu'on essaye de nettoyer nos Bl comment savoir si l'algo détecte qu'on met au moins de la bonne volonté ?

Qu'est-ce qui est considéré comme plus grave aux yeux de google, la pénalité manuelle ou algorithmique?
 
WRInaute discret
Très bon sujet :D . Je me pose aussi pas mal de questions.
Ok pour se faire pénaliser si le site abuse du SEO mais qu'il nous dise au moins quel est le problème.
Car on peut chercher très longtemps... sans trouver.
Y'aurais t il un moyen de contacter google france par exemple pour se genre de problème ?

Pour toi @noren si c'était un problème de lien je pense qu'il t'aurais envoyé un message via GWT avec une sanction manuelle, non ?
 
WRInaute accro
Tu peux avoir une pénalité algorithmique et non manuelle même pour un problème de lien, ce qui est mon cas :wink:

D'ou mes questions dans ce topic
 
WRInaute discret
Je connais 2 liens mais je ne sais pas si derrière il se passe quelque chose
1er site pénalité panda
2ème site en anglais troubleshooter

Pour le 2ème cochez :
- my site in search results
- my site dropped in ranking
- Yes
- Yes i have checked my GWT but did not receive message...
- No I still need help

Ensuite remplissez le formulaire et peut être que quelqu'un vous répondra... esperez pas trop quand même :D
 
WRInaute accro
j'ai des doutes qu'il y ait beaucoup de sites dont la pénalisation ne dépendent que des bl externes. En général, si bl externes trop ancrés sur des mots clés concurrentiels, ça veut aussi dire que le contenu on-page est largement suroptimisé. Donc sans un nettoyage de ce côté, la pénalisation restera
 
WRInaute occasionnel
Je suis dans le même cas que toi Noren...
Un site qui ne cesse de chuter depuis mai et encore maintenant avec la nouvelle maj.
Avant Pingouin j'utilisais les annuaires, cp, commentaires de comm mais pas en quantités astronomiques non plus.
Depuis fin août je nettoie les backlinks, j'en crée de nouveaux beaucoup plus qualitatifs...(Identifier les gros sites d'autorité dans mon domaine, leur proposer de rédiger gratuitement un dossier et inclure un lien vers mon site entre autre) et là je viens encore de me reprendre une légère mandale depuis avant hier (-15%) qui n'a rien à voir avec Noël quand je regarde les stats des 4 dernières années...
 
WRInaute accro
Qu'est-ce qui est considéré comme plus grave, une pénalité algorithmique ou manuelle? (qui est considéré comme le plus méchant pas beau?)
 
WRInaute discret
Les 2 sont mauvaises mais a mon avis pour le moment c'est plus simple de sortir d'une pénalité manuelle que de sortir des sanctions des 2 algos. Sans compter que bien souvant il y a les 2 à la fois.
J'suis de votre avis le pense que les ancres de lien internes sont à nettoyer pour et J'ai l'impression que certains en sont sortis mais savent ils comment?
Noren le début de ta descente correspond a une mise a jour de panda c'est bien ça?
 
WRInaute accro
J'ai d'abord été touché par panda en novembre 2012 (-30%)
Puis par Pingouin en mai 2013 (-60%) et je suis actuellement a -80% de trafic google. Autant dire une belle rouste.

On sait que pour une pénalité manuelle tant qu'on a pas viré tous les liens factices on en sort pas, mais est-ce la même chose pour une pénalité algorithmique? Si on nettoie une partie des liens, est-ce que ça réduit la sanction? :roll:

Comment savoir si nos efforts sont vraiment considérés?

On est dans l'ignorance totale.

Ensuite je ne suis pas persuadé que les sanctions algorithmiques et manuelles sont considérés de façons identiques aux yeux de google. Sinon pourquoi différencier les 2.

Qu'est-ce qui fait que certains sont sanctionnés manuellement et d'autres uniquement algorithmiquement? C’est pas clair tout ça.
 
WRInaute discret
En effet on est dans l'ignorance totale. Je pense que les 2 algos de google ne sont pas fiable a 100% et c'est pour cela qu'il y a des dommages collatéraux et que l'on a pas les causes des pénalités algorithmique. C'est a dire qu'il y a des sites très bien fait qui se retrouve dans les filtres de ce satané Google. Je pense donc aussi que c'est pour cela qu'il ont créé le formulaire troubleshooter : pour les gens honnêtes qui veulent faire évoluer le moteur dans le bon sens. Hésitez pas à les inonder de mail en demandant la cause de la pénalité (même si il réponde pas, il y a forcément quelqu'un derrière).
 
WRInaute accro
BoboAsh, je ne dis pas que je ne suis pas en tort 'du moins en partie, je me demande juste pourquoi certains sont pénalisés manuellement et d'autres algorithmiquement pour en fin de compte la même chose (liens factices)
 
WRInaute discret
En effet c'est étrange. Je pense que il y a des liens qui sont détectable automatiquement (par script) mais d'autres ont besoin d'une analyse humaine pour détecter le spam ou la sur-optimisation (tout simplement)
 
WRInaute discret
A mon avis la pénalité manuelle est faites pour brider les sites dont optimisation a été trop bien menée pour être détectée par un algo.
Si un de vos copain vous fait un beau cadeau de Noël comme un reporting de spam et, ou que vous ne plaisez pas au service qualité de GG (contenu pauvre, volume de pages trop élevé, trop de traf naturel, et je ne sais quoi, ....), vous vous retrouvez avec un boulet au pied ce qui vous bride sur vos principales requètes.
Ce n'est pas clair et ce stade ce n'est pas non plus un hazard car nous sommes jugés comme bon semble à Google qui se prend pour le dieu et applique sa justice suivant des critères bien gardés d'entreprise qui considère ne pas avoir de compte a nous rendre.
Au final, Google a besoin d'apporteurs de contenu de qualité (les grandes marques), les internautes il les a déjà et il ne souhaite plus les donner sans prendre sa part du gateau au passage, c'est de bonne guerre, Busines is busines, il nous restera bientôt que les miettes.
 
WRInaute accro
Vous partez du principe que les sanctions manuelles sont le fait uniquement d'une dénonciation. Mais est-ce réellement le cas?
 
WRInaute discret
Je ne pense pas que ce soit le seul moyen de dépistage, il y en a sans doute bien d'autres indicateurs basés sur des stat.
Une sanction manuelle n'est pas bien difficile a faire sauter car Google nous donne des exemples alors qu’avec les algos c'est plus compliqué surtout que les mises a jour sont espacées ce qui réduit les possibilités de test.
 
WRInaute accro
Donc si les sanctions manuelles ne sont pas uniquement le fait d'une dénonciation, c'est qu'ils sont également détectés par l'algo, par conséquent je ne comprend toujours pas pourquoi il y a 2 cas de figure et qu'est-ce qui fait qu'on est sanctionné par l'un ou par l'autre, voir les 2.

Qu'est-ce qui différencie les sites sanctionnés manuellement et ceux algorithmiquement? Pour moi c'est toujours pas clair. En partant du principe qu'ils sont sanctionnés pour liens factices.
 
WRInaute discret
Je comprends à quoi tu veux en venir mais tu ne prends pas en compte le fait que si google était trop restrictif sur l'action des algos il pénaliserait beaucoup plus de sites donc il y a une marge de tolérance et dans cette marge d'eventuels controles humain déclanchés pa dives indicateurs (c'est la zone de risque).
Petit à petit il cale les algos pour être de plus en plus restrictifs et suivant son expérience Manuelle.

Ce n'est qu'une théorie mais elle se tient, personne ne peut la vérifier, mais j'en suis presque certain.

Google nous éduque comme des esclaves et ça marche, ils nous donnera les miettes pour nous maintenir en vie corvéable a souhait et il fera son gas sur le dos de ses serviteurs.
 
WRInaute accro
moi je pense que la sanction manuelle, c'est quand on a largement dépassé la limite "autorisée" et que l'algo a déjà détecté le dépassement. Et surement un 2° niveau d'algo a détecté un niveau de dépassement plus élevé.
donc une fois que la pénalité manuelle a été supprimée, rien ne dit que le site soit redescendu en dessous du niveau 1 de l'algo.
de toutes façons, pour moi, la pénalité n'est pas liée qu'aux seuls bl : quand on a chargé les ancres suroptimisées sur moult annuaires externes, il me parait peut probable que le contenu interne du site ne soit pas encore plus suroptimisé. Donc tant que lui ne sera pas revenu dans des normes acceptables (du genre tu lis le contenu à haute voix et ton interlocuteur ne te dit pas que tu en fais trop...) la pénalisation restera. Quand bien même tu auras supprimé tous tes bl externes
 
WRInaute accro
@Leonick : Possible que la pénalité algorithmique soit lié a d'autres problèmes que les BL externe, même si j'en doute si je prend mon cas. Je n'ai pas l'impression de sur optimisé en interne, et j'ai fait bcp d’échanges de liens avec ancre optimisée.

Pas sur non plus qu'il s'agisse d'une histoire de niveau, mais peut être plus du type de BL externe.
Je pense que google doit faire une différence entre des BL de pieds de pages (et d’échanges) et ceux qu'on essaye d'enrober dans du texte (annuaires, communiqués de presse, blogs etc.). Et c'est le 2ème cas qui semble être le plus pénalisé manuellement pour liens factices (du moins pour le moment. Je rejoint coideneuf, je pense que google resserre petit a petit son étaux).

On reste dans le flou et on ne peut faire que des suppositions
 
WRInaute discret
Noren nous sommes au moins ok sur un point :wink:
Te souviens tu de l'évolution de l'algo sur les pages 1,2, 3, .... toujours la même ancres en interne c'est peut être une bonne piste non?
Ton site n'est il pas fait sur ce principe?
Allez une notion au cas ou -> Menu de navigation identique avec en prime des ancres assez optimisées sur beaucoup voir toutes tes pages n'est ce pas des liens internes similaires repétitifs orientés SEO ?
Si c'est le cas cette technique de suroptimistaion est très Facile a détecter pour GG

Dans un autre registre les ancres recomposées via des mots organisés dans une base de données rien n'est plus efficace que des ancres véritables -> diversifiées -> c'est le principe de la sémantique .

Vous en pensez quoi?
 
WRInaute accro
Coideneuf a dit:
Allez une notion au cas ou -> Menu de navigation identique avec en prime des ancres assez optimisées sur beaucoup voir toutes tes pages n'est ce pas des liens internes similaires répétitifs orientés SEO ?

Je pense que google sait détecter le menu, il n’est pas anormal qu'il se répète sur toutes les pages, que les liens de ce menu soient optimisés ou non. D'ailleurs il semble logique que pour le menu soit clair et qu'on mette des ancres clairs donc souvent optimisés. :wink:

D'ailleurs ce n’est pas forcément les ancres utilisées dans mes menus ou en interne qui sont les plus pénalisées :wink:
 
WRInaute discret
Des ancres optimisées pour qui?
Pour l'internaute ou pour le seo, je pense que la pénalité est la même pour une suropti des liens externes et une suropti du maillage interne mais encore une fois ce n'est que mon avis.
L'internaute sait dans quel univers il se trouve donc les répetitions ne sont pas pour lui, elles ne lui servent a rien et encore moins si c'est répétitif.
C'est peut être sur ce principe que ce base GG c'est une théorie .
 
WRInaute accro
Si j'ai une rubrique qui parle de robinets mitigeurs il me semble normal de Marquer "Robinets mitigeurs" dans le menu. C’est "optimisé" pour être clair pour l'utilisateur (à ce niveau là je me moque éperdument de google et du ref :wink: ). Je ne vois pas pourquoi je changerais mes ancres dans mes menus que j'estime clairs pour les utilisateurs sous prétexte qu'il soit possible que google les trouve trop optimisés. A ce niveau là ça serait de l'abus pur et simple. Et si c’était le cas, alors qu'il aille se faire v*ir :wink:

Mais je doute vraiment que le problème vient de là (dans mon cas mes ancres dans le menu sont totalement justifiés tout comme il est justifié d'afficher son menu sur toutes nos pages).

Non je crois vraiment que le soucis vient avant tout des BL externe, je n'ai quasi aucun doute la dessus. Même si avec google on ne peut être sûr de rien
 
WRInaute accro
Coideneuf a dit:
Noren nous sommes au moins ok sur un point :wink:
Te souviens tu de l'évolution de l'algo sur les pages 1,2, 3, .... toujours la même ancres en interne c'est peut être une bonne piste non?
Ton site n'est il pas fait sur ce principe?
sauf que l'ancre sera le numéro de page. Là ça ne pose aucun problème. Par contre, si tes ancres sont "keyword page 1","keyword page 2","keyword page 3",... là, tu risques fort
 
WRInaute accro
noren a dit:
Si j'ai une rubrique qui parle de robinets mitigeurs il me semble normal de Marquer "Robinets mitigeurs" dans le menu.
oui, mais dans ce cas, j'aurais un regroupement qui serait "robinets mitigeurs" et en dessous, j'aurais "chromé", "peint", etc... et non "robinets mitigeurs chromé", "robinets mitigeurs peint", etc...
les sites qui donnent des % de mots clés à ne pas dépasser, racontent n'importe quoi. Le % à ne pas dépasser c'est quand tu es hors contexte web, du genre tu es un vendeur dans un magasin de robinetterie, tu crois que si tu emploies "robinets mitigeurs" dans toutes tes phrases, tes interlocuteurs ne vont pas s'enfuir du magasin ou, éventuellement, chercher un vendeur un peu plus normal ? :mrgreen:
 
WRInaute discret
Leonick,

Les page 1,2,3, ... sont dévalorisées depuis pas mal de temps, même sans mots clefs avant et après le no de page, c'est une certitude mais Google peut aussi s'appuyer sur d'autre éléments (URL, balise meta ....)

Pour les menus nous sommes d'accord un regroupement s'impose dans le cas contraire ne pouvons nous pas parler de suroptimisation?

Noren, c'est aussi une question que je pose en ayant scruter pas mal de sites pénalisés, c'est aussi un élément qui revient très souvant mais je n'affirme rien.

Est ce le cas des sites de vous savez touchés?
 
WRInaute discret
Leonick,

Les page 1,2,3, ... sont dévalorisées depuis pas mal de temps, même sans mots clefs avant et après le no de page, c'est une certitude mais Google peut aussi s'appuyer sur d'autre éléments (URL, balise meta ....)

Pour les menus nous sommes d'accord un regroupement s'impose dans le cas contraire ne pouvons nous pas parler de suroptimisation?

Noren, c'est aussi une question que je pose en ayant scruter pas mal de sites pénalisés, c'est aussi un élément qui revient très souvant mais je n'affirme rien.

Est ce le cas des sites de vous savez touchés?
 
WRInaute accro
pourquoi seraient-elles dévalorisées ?
du moment que du contenu intéressant s'y trouve, je ne vois aucune raison qui fait que gg devrait les dévaloriser.
par contre, faut les laisser avec comme ancre leur numérotation et ne pas tenter d'y ajouter des mots clés
 
WRInaute accro
Pour le menu, même si on pourrait "peut être" (et je dis bien peut être) simplifier par "chromés" au lieu de robinets mitigés chromés, dans certains cas trop simplifier enlève de la clarté. Et de toute façon je trouverais ça abusé que google nous pénalise pour notre menu.

Prenons le cas ici :

https://www.webrankinfo.net/cat-5-sante.htm

On a :

Santé de l'enfant
Santé de l'homme
Santé de la femme
Santé de la personne âgée
Santé et sécurité au travail
Santé mentale
Santé publique

ou ici dans les catégories :

https://www.webrankinfo.net/cat-7-art-et-culture.htm

Arts et culture Japon
Art funéraire
Arts et culture du Maroc
Arts et culture à Nantes
Arts de la table

Alors même si ces exemples ne se répètent pas sur toutes les pages, ce que j'essaye de dite c'est qu'il est parfois difficile ou problématique de dissocier des mots sans perdre en clarté et sans perte d'information dans le nom de la rubrique.
 
WRInaute discret
Leonick
Il y a de nombreuses raisons, la 1ére qui me vient -> Pour limiter la présence d'un même site dans les resultats de recherche (sur une même requète) comme c'était le cas avant.

Noren
Comme tu le dis, a mon avis c'est une question de proportion dans les ancres internes (le profil de ton maillage) comme pour le manchot dans le cas de liens externes.
Je ne pense pas que que le manchot soit une pénalité comme beaucoup l'imaginent sur la forme, mais sur le fond le résultat est identique.

Je suis quasi certain que ce n'ai pas une pénalité, je pense simplement que les ancres trop répétitives sont ignorées -> tu te passes de ton optimisation si ton profil est trop bourin et tu fais une croix sur ton travail de seo sur les expression que tu as trop cherché a booster.

Le résultat Correspond aux annonces de Gg:
Sanction ou plutot ignore les liens sur: EMD, signature de forum, Ancres de lien répétitifs, soumissions dans les annuaires, commentaires et bien d'autres -> trop de mêmes Ancres!
 
WRInaute accro
Coideneuf a dit:
Leonick
Il y a de nombreuses raisons, la 1ére qui me vient -> Pour limiter la présence d'un même site dans les resultats de recherche (sur une même requète) comme c'était le cas avant.
point besoin de pénalités pour cela : il suffit de prendre les 2, 3 ou 4 premières pages pour afficher dans les serp
quand on change de requêtes, il est fortement possible que la page 1 n'apparaisse pas, mais que ce soit la 20 ou la 30°
 
WRInaute accro
prends une longue discussion sur wri, du genre plus de 10 pages et effectue une recherche d'expressions présentes en pages 1, 6, 8 et 10. Et regarde quelles pages sortent dans les serp
 
WRInaute discret
Je n'ai pas trouvé de cas et de plus je parle d'expression optimisée par exemple pour WRI le titre du topic et non pas d'une expression diluée dans le contenu. Le plus simple est de regarder sur l'annuaire.
 
WRInaute accro
plutôt que de vouloir ne t'occuper que des bl externes, désoptimise ton site, ça devrait pouvoir mieux améliorer les choses
 
WRInaute discret
C'est bien le problème Leonick, c'est fait depuis déja pas mal de temps et la remonté n'est pas spectaculaire j'ai seulement stabiliser la bête.
Je vais attendre la prochaine mise a jour du manchot et comme j'ai fait sauter une pénalité action) manuelle en novembre je pense ne plus avoir de problème avec mais liens externes.
Si j'ai passé le contrôle humain normalement le manchot sur les liens externes ce devrait être dans la poche non?

Dans ce cas après a la prochaine maj nous serons fixés l'interne du site
 
WRInaute accro
Coideneuf a dit:
Si j'ai passé le contrôle humain normalement le manchot sur les liens externes ce devrait être dans la poche non?

Non la pénalité manuelle semble ne pas forcément t'éviter une pénalité algorithmique. On peut avoir les 2 (voir les articles d'Olivier)

Il y a doit y avoir une distinction qui est faites en fonction du type de liens externes. Il y a ceux qui doivent provoquer des pénalités manuelles et ceux qui nuisent a ton positionnement (ce n'est qu'une hypothèse)

expérience personnelle, je n'ai eu aucune pénalité manuelle (je suis inscrit sur peu d'annuaires, aucun communiqué de presse, et aucun article avec lien ancré, par contre j'ai pas mal d’échanges de liens, (pages partenaires et pieds de pages sur sites externes mais de même thématique).

En faisant désoptimisé certains liens ou retirer d'autres, je constate une très nette amélioration sur la position des mots clés consternés (même si je constate toujours pas d'amélioration sur le nombre de visiteurs provenant de google)

En gros mes BL externe ne semble pas provoquer de sanctions manuelles mais nuisent à mon positionnement.

Je pense donc qu'il s'agit de certains types types de liens externes qui provoquent la sanction manuelle et d'autres la sanction algorithmique
 
WRInaute discret
Noren:

Je sais comme toi ce qui se passe sur WRI et sur bien d'autres sources et je fais aussi mes tests perso.

Je pense que si tu as une pénalité manuelle et que tu parviens a en sortir alors tu sortiras de la pénalité algorithmique.

Pourquoi je le pense? Car pour sortir d'une de la manuelle tu dois montrer patte blanche et c'est le meme dépatement chez GG qui gère le manuelle et qui définissent les règles pour l'algo.

La manuelle nous l'avions depuis plusieurs années sans que nous soyons descendus, en revanche et plus tardivement c'est l'algo qui a pris le relai car le seuil de tolerance a été revu a la hausse par l'equipe qualité.

Donc si l'equipe qualité te déclare que la pénalité est tombée il ya fort a croie qu'après la maj de l'algo tu remontes sauf si c'est lié a ton opti interne. Reste seulement a pendre en compte que tu as taillé dans le gras de liens externes pour t'en sortir.

Comme Olivier je pense que la pénalité manuelle ne te protège pas de l'algo.
Mais je n'ai trouvé aucun témoignage pour affirmer que si la pénalité manuelle est levée car tu es devenu propre alors l'a pénalité algho tombe a la maj suivante du machot .

Je suis presque certain que se ne sont pas des pénalités mais les liens trop otimisés n'appotent plus de crédit aux expressions visées-> Google le dit lui même a qui veut l'entendre. l'espoir fait vire!



Tu en penseS quoi?
 
WRInaute accro
Tout dépend de la façon dont les salariés de google test le site lorsque tu demande à sortir de la pénalité.
J'imagine qu'ils ont un outil (mini algo) pour tester ton site qui, peut être, test uniquement des BL externes spécifiques. Ou ceux qu'ils avaient répertoriés dans une liste en interne.

Après tu as évidemment raison, si tu nettoie quasi tous tes BL externes dans le lot tu vas certainement virer des Bl qui n'étaient pas liés à ta sanction manuelle, mais qui pourront te sortir ou t'éviter une pénalité algorithmique :wink:

Ma théorie tient toujours la route :wink:
 
WRInaute discret
Nous sommes d'accord ils ont sans doute une liste et lors chaque demande de réexamen ils relancent un petit algo pour la remettre la a jour avant de revérifier manuellement. Puis si c'est ok il te route une confirmation via WMT. Suivant certains témoignages il peut y a voir une remonté assez rapide (pas besoin de maj du manchot) -> ça dépend comment les actions de nettoyage ont été menées (suppression, modification ou désaveux).

Désaveux tu te prives définitivement du lien (tant qu'il est dans ton fichier)
Suppression tu te prives du lien mais tu te laisses la chance qu'il y en ai un bon un jour.
Désoptimisation tu bénéficies du lien

Pour une pénalité algo tu dois attendre la maj sans doute car Google remet a jour une liste beaucoup plus copieuse pour toute la toile.

Si comme moi tu as les 2 en même temps et que tu es sorti de l'action manuelle tu dois attendre la maj générale pour voir si le résultat est concluant.

Pour l'algo tout est une histoire d'équilibre d'ancres si tu en refais de qualité ou que tu supprimes des liens nocifs tu rééquilibres ton profil général et la tu remontes.

Je pense que nous ne sommes pas au bout, Google va continuer a durcir le manchot pour supprimer tout risque de lien qui s'écarte du naturel, il placera le curseur pour que seul les sites qui respectent scrupuleusement ses recommandations passent au travers.

Notre seule chance est de désoptimiser pour devenir propre en espérant rester sous la limite, c'est dommage pour ceux qui ont misé trop fortement sur le seo des années 2000 sans créés une véritable valeur ajoutée.

Ajoutes a ça l'interaction des sites touchés qui apportent moins de poids a ses partenaires voir même produit l'effet inverse et tu arrives a déboussoler le plus méthodique des pro du SEO, c'est ce à quoi nous assistons depuis la sortie des algos de compensation.
 
WRInaute accro
Oui google va surement encore durcir et serre l'étau que comme tu dis, et c'est bien ce qui fait flippé. bientôt le moindre liens externe naturels ou non sera potentiellement dangereux. On ne pourra bientôt plus compter sur les visiteurs de sites référents renforçant son monopole et son pouvoir sur nous.
 
WRInaute discret
:D . Merci je me débrouille très bien tout seul, je dis simplement qu'on perd du temps a chercher quelque chose qui devrait nous être indiqué comme pour les sanctions manuelles. "Ce genre de site me fait bien rire :p "
 
WRInaute discret
Miser sur un prestataire extérieur pour ce type de problématique c'est couteux et risqué.

Si tu en as un qui est prêt a être payé seulement si il sort mon site de sa pénalité je suis preneur :lol: mais aujourd'hui personne de sérieux ne s'engagera car aucun pro digne de ce nom ne peux donner de garantie de résultat.

Au mieux certains vous donnerons de bonnes pistes.

J'ai une question, mon site à baissé significativement le 7 novembre 2012, il y a pas eu de maj du manchot mais une maj de panda le 5 novembre, puis je en déduire avec certitude que c'est panda le fautif?
Est il possible que la mise à jour de panda ait accentuée l'effet d'une pénalité plus ancienne liée au manchot?
 
WRInaute accro
Coideneuf normalement ca ne fait quasi aucun doute que c'est du Panda, j'ai également été touché a cette date (6 novembre) et je sais que ça vient de mon contenu qui était parfois trop léger avec avec du DC
 
WRInaute discret
Noen,

C'est ce que je pense aussi mais dans le fil de cette discution tu dis que tes échanges de liens te plombent :?

Je pense que si l'equilibre du site est touché par le manchot, il est alors moins protègés des griffes du panda.

Ne dis t'on pas qu'un site bien ranké par des liens de qualité est un site qui peut se permettre plus de choses?

Ne peut on pas en conclure que la descente progessive d'un site a mesure du temps et des majs n'est autre que la réaction en chaine de l'influance d'un animal sur l'autre.

C'est assez logique comme raisonnement, donc un site touché par le manchot a de forte chance de se prendre panda, comme nous. Le fait que nombreux sites de bonne notoriété aient été touché conforte cette idée.
 
WRInaute accro
Coideneuf a dit:
donc un site touché par le manchot a de forte chance de se prendre panda, comme nous.
Non ça c'est de la pure spéculation sachant que les facteurs déclenchants de l'un et l'autre sont totalement différents.
 
WRInaute accro
Impossible de répondre à ça.

Mais j'ai également en effet été touché ensuite par le Pingouin en mai 2013. J'ai donc d'abord été touché par le panda puis le pingouin
 
WRInaute accro
Être touché par les deux (linking + contenu) peut être révélateur d'une politique web mal pensée à la base (ou devenue obsolète) aussi ... (si on met le NSEO de côté dans l’équation)
 
WRInaute discret
Zeb, je parle de l'influance éventuelle d'une attaque sur le declanchement potentiel de l'autre, je sais que l'un et l'autre ne sont pas directement liée.

Spéculer a plusieurs est un moyen de batir des convictions, pas des certitudes, personne n'a les réponses le secret est bien gardé.

Mais si nous attendons que Google nous donnes la réponse, une chose est certaine c'est qu'il le fera lorsque nous aurons a travers des convictions établis de vagues certitudes.

C'est ce qui se passe depuis toujours n'est ce pas?

Noren, nous sommes exactement dans le meme tunel :D
 
WRInaute discret
Zeb: Tu oublies qu'il y a des modèles de sites non souhaités par Google et neanmoins rentables, dans ce cas il y des compromis a trouver sans pour autant avoir la capacité de forcement se positionner en No1 sur des expressions concurrencielles.

Si tu suis a la lettre les recos de GG tu regardes les fesses des autres sites et pour toujours.
A toi de voir si tu joues ou pas!
A part les grosses marques les autres sont encore derriere même avec le boulet au pied!
 
WRInaute accro
Coideneuf a dit:
Ne peut on pas en conclure que la descente progressive d'un site a mesure du temps et des majs n'est autre que la réaction en chaine de l’influence d'un animal sur l'autre.
ou que ses concurrents ont plus bossé leurs sites :wink:
 
WRInaute discret
Zeb: Soit tu joues et tu optimises techniquement au risque de te faire descendre un jour si tu deviens trop visible, soit tu reste sur la touche.
Ce qui est ok Le 24/12/3013 ne le sera peut être plus Le 26/12 après le passage du père Noël.
Dans ses filtres, Google est rétroactif et il amplifie les pénalités sur un l'historique datant de nombreuses années bien que les techniques étaitent propres a l'époque.
Lorsque tu écrits: "peut être révélateur d'une politique web mal pensée à la base" C'est sans tenir compte qu'a l'origine les règles n'étaient pas les mêmes.
 
WRInaute discret
Leonick,

Ce n'est pas une question de quantité, lorsque tu es inquiété par l'algo tu peux toujours travailler plus, rien n'y change.
 
WRInaute accro
Coideneuf a dit:
Lorsque tu écrits: "peut être révélateur d'une politique web mal pensée à la base" C'est sans tenir compte qu'a l'origine les règles n'étaient pas les mêmes.
explicitement, non. Mais implicitement si : la règle était "faites vos sites pour les internautes". Est-ce que faire plein de bl depuis des sites qui n'envoient quasi aucun internaute sur nos sites correspond à cette règle ? à l'époque gg donnait du poids à de tels liens, ensuite il a réduit ce poids. Il n'a donc, à proprement parler, pas pénalisé. Juste redonné la "bonne" valeur à de tels liens. Sauf que les sites qui ne se positionnaient qu'avec ça et pas avec un bon contenu, ça leur a fait très mal
 
WRInaute accro
Coideneuf a dit:
"peut être révélateur d'une politique web mal pensée à la base" C'est sans tenir compte qu'a l'origine les règles n'étaient pas les mêmes.
Oui, enfin, "oui et non".

A titre perso pour l'exp. que j'ai du panda c'est pas neuf ce filtre est un regroupement de point négatifs présents depuis des années donc ça conforte mon point de vu
Pour le manchot et les souci de linking (puisque la majorité attribue ses sources au linking) c'est un peu la même chose puisque mes premiers penaltys pour "link bombing" je les ai pris il y a 5 ou 6 ans ... Sauf qu'a l'époque tu attendais 3/6 mois tu sortais de la pénalité et tu te gavais sur la page une.

Bref je maintiens donc que ces filtres n'apportent rien de neuf c'est du pur réchauffé de la part de google et que tout site qui a moins de 6 ans environ aurait du a la base y penser.

Après je ne sais pas si tu rend compte qu'on se positionne vraiment plus facilement sur du non concurrentiel qu'avant avec aucun liens par exemple. Alors je t'accorde que sur "p0ker" ça ne vas pas le faire mais c'est aussi une histoire de proportion et de qualité ... En ce sens une politique web "modérée" était déjà avant ces filtres envisageable sans pour autant rester derrière les autres a vie. La première place en haut de la une n'est pas forcement la meilleur c'est pas nouveau ...
 
WRInaute discret
Leonick et zeb, de ce point de vue vous avez raison, vous m'avez permis d'y voir plus clair. Je vais rester positif, mon contenu étant de tès bonne qualité, la désoptimisation devrait porter ses fruits.


Bon Noël a vous tous!
 
WRInaute accro
Coideneuf ta désoptimisation a t-elle finie par porter ses fruits? t'es tu enfin sorti de cette pénalité algorithmique?
 
Discussions similaires
Haut