Désavouer ses liens avant même d'être pénalisé ? #prévention

WRInaute accro
Je repose ici la question que j'ai posé en commentaire sur l'article :

En utilisant l'outil de désaveux ne va t-on pas attirer l'attention sur son site? Et par conséquent ne risque t-on pas une pénalité manuelle si on n'a pas encore désavoué tous les liens pouvant être considérés par google comme "factices"?
 
WRInaute occasionnel
Je n'ai pas encore désavoué de liens pour ma part mais essayé de contacter un à un les webmasters des sites. On va dire que dans les 3/4 des cas ça marche, ça évite peut être de faire des boulettes. En revanche il y a des espèces de machins pourris où impossible de trouver un contact, à un moment donné peut être que je m'y mettrais
 
WRInaute discret
Moi je pense qu'il est bon de le faire si vous avez de tels lien.
Ca prouve que vous êtes de bonne fois.
Enfin, ce ne sont que des hypothèses on ne sera jamais vraiment comment il interprète la chose ni le reste d'ailleurs.
 
WRInaute occasionnel
Je pense surtout qu'on fait le sale boulot à sa place oui! En plus de se faire plomber faudrait citer les mauvais sites. Puis je trouve son utilisation dangereuse comme dans le cas de dic*citations ou un websmaster a utilisé l'outil de désavoeux plutot que de le contacter, et ça par méconnaissance. ça peut plomber un site qui n'est pas spécialement fautif.
 
WRInaute discret
Pour ma part j'ai désavouer hier une trentaine de liens que je jugeais de mauvaise qualité (en tout j'ai 250 sites de répertorier par GG qui me font des BL).

Pour la plupart de ces 30 liens désavouer je n'avais rien demandé du tout ... spam ou negative SEO ... je ne sais pas mais en tout cas çà ressemblais pas a des sites bien clean :x , dans le lot il y avait des annuaires bien pourris avec des pub pour des sites XXX, des sites étrangers écrit en russe par exemple qui référence mon site ??? bizarre !

J'avais fait aussi des grossières erreurs de référencement en écrivant sur des blogs avec des ancres suroptimisées ... oui je sais s'est pas bien, pour celle là j'ai donc tout virer à la main sans passer par du desavoeux bien évidemment !

Bon il est vrai que j'ai fait tout çà car je me suis pris une bonne calotte il y a peu ..maintenant j’attends les résultats dans plusieurs semaines ou mois certainement mais bon il faut savoir être patient avec GG et ses algo !
 
WRInaute accro
pou moi, le seul intérêt serait que, si tous les webmasters jouaient le jeu, ça permettrait de sortir des serp tous les sites de scrapping de m... qui n'ont rien à faire là :twisted:
 
Nouveau WRInaute
J'ai désavoué il y a une semaine une trentaine de noms de domaines (sur cent environ) sur un de mes sites.
Avant le NSEO, nous etions référencé entre la première et la deuxième page pour un mot très concurrentiel.
Suite au NSEO, nous sommes maintenant en 7iéme page (et même pas sur l'index).

Depuis que j'ai désavoué ces liens, nous avons chuté à la dixième page (sic) puis remonté à la 7iéme page puis redescendu à la 11ième page. Bref ca bouge !

Je vous tiendrais au courant.

Pour ceux qui souhaitent connaîte le site et le mot clé, MP.
 
WRInaute accro
bon bin voilà j'ai franchi le pas. je viens de désavouer une soixantaines de domaines :

- sites vérolés
- sites avec pubs porno
- annuaires douteux
- et quelques sites avec liens optimisés (pieds de pages) qui ne répondent pas à mes relances pour les faire retirer. (sites à l'abandon)

On verra bien. je vous tiendrais au courant également. :cry:

Si les résultats sont positifs d'ici quelques mois, je désavouerais une deuxième vague en préparation ;)
 
WRInaute discret
T'inquiete Noren ! Je vois que t'es pas mal parano sur ce sujet précis. Sache pour te rassurer que je désavoue depuis un bon moment et que la stabilité des mes audiences n'ont jamais été aussi sereines (je touche du bois malgré tout).
J'irai même à l'inverse de ta pensée, désavouer c'est être un bon élève aux yeux de google. Car il sait bien que tous les backlinks ne proviennent pas de nous. Et puis pour finir ce serait plus que tordu ce genre de piège, et pas très prometteur en terme de résultat.
 
WRInaute accro
Merci jolm pour ton soutien :wink:

En ce qui te concerne tu n'as donc pas progresser malgré l'utilisation de l'outil de désaveu? tu t'en sers depuis quand? tu met à jour le fichier régulièrement?
 
WRInaute occasionnel
Prenons un exemple, enfin ce qui m'est arrivé:

- J'ai subi du NSEO par milliers sur 3 sites américains (insane journal, onsugar et posterous). Cela a duré 3 ans, donc avant même la sortie de l'outil de désaveu.

- Constatant ces BL pourris et de plus, sur des ancres n'ayant aucun rapport avec mes thématiques, j'ai tenté de les faire retirer en contactant ces sites. Rien à faire, ces sites restent immobiles devant mon problème. Les pages NSEO sont restées présentes jusqu'à la mise à jour de Pengouin 2.0, mais lors de l'algo 2.1, ces pages pourries ont TOUTE disparu comme par enchantement... Bizarre non ? :wink:

- Ces liens NSEO ont été désavoués pendant le laps de temps où Pengouin 1 et 2.0 était en vigueur.

En clair, cela laisse supposer que Google regroupe les domaines désavoués par l'ensemble des webmasters et applique la demande de désaveu lors de la mise à jour. De là même à penser, que GG doit appliquer une sanction au site qui accepte les NSEO. En effet, pourquoi pas ?

Si par exemple, 1000 webmasters affirment (par l'outil de désaveu) qu'ils ne désirent pas tel lien, il est facile pour GG de savoir qui a tort et qui a raison dans cette affaire de désaveu: la masse pointe le doigt sur un site qui accepte les BL pourris. Ce dernier en prend pour son grade, soit déclassement, soit moins de trust, pr etc.

C'est clair que l'on fait le nettoyage pour Google. Mais pourquoi pas ? Je ne vois pas de problème à ce sujet. Si tu vois un lien que tu n'as pas fait ET QUI EST DU NSEO, autant le dire à GG.

Et puis, comme je suis "préventif", j'ai pris la précaution de désaouver TOUS les domaines connus de blogs fr et us, même celui de Google.
 
WRInaute accro
philyd a dit:
Si tu vois un lien que tu n'as pas fait, autant le dire à GG.
Ouais, alors si je résume ;
1/ ne pas faire de liens fictifs (liens SEO fait par nous)
2/ ne pas accepter des liens qu'on nous fait sans rien demander (liens naturels)

Je suppose qu'il faut juste accepter les liens naturels issus de sites a fort trusrank ? et faire la chasse au NSEO a leur place.

Les gars vous me faites halluciner de plus en plus ...

Perso le Matt il peut se le carer au c*l son outil de désaveux de toute façon il recevra bien assez de plaintes pour tous les domaines de m*rd* genre whois et il est pas question que je passe du temps a combler ses lacunes. C'est son job, il gagne d'ailleurs largement mieux sa vie que vous il a qu'a assumer ou se faire virer pour incompétence si les SERPs partent en sucette.

Non mais j'te jure ... ce qu'il ne faut pas entendre aujourd'hui avec Google ...
 
WRInaute occasionnel
zeb a dit:
Ouais, alors si je résume ;
1/ ne pas faire de liens fictifs (liens SEO fait par nous)
2/ ne pas accepter des liens qu'on nous fait sans rien demander (liens naturels)

1/ Je n'ai jamais dit cela ! Je ne désavoue pas les liens que j'ai fait, type SEO à 95%. Je garde aussi les liens naturels qui me conviennent. J'ai des liens sur Wikipédia, le Figaro etc... Faudrait être con pour les désavouer :mrgreen:

2/ Rectifié en rouge, voir mon post.

zeb a dit:
Je suppose qu'il faut juste accepter les liens naturels issus de sites a fort trusrank ?...

Pas spécialement. Il y a des petits sites qui sont à petit PR, mais qui sont mis à jour régulièrement. Je ne vire jamais ceux-là.

zeb a dit:
et faire la chasse au NSEO a leur place ?

Moi, ca ne me dérange pas tant que ça profite aux classements de mes sites ! Et puis cela prouve que GG est impuissant, point barre ! On le sait tous que pour endiguer le spam, GG n'a pas un mandrin genre "Poney de 35" dans son slip malgré tous ses ingénieurs.

zeb a dit:
Les gars vous me faites halluciner de plus en plus ...

Non, GG implique, moi je suis.

zeb a dit:
Perso le Matt il peut se le carer au c*l son outil de désaveux de toute façon il recevra bien assez de plaintes pour tous les domaines de m*rd* genre whois et il est pas question que je passe du temps a combler ses lacunes. C'est son job, il gagne d'ailleurs largement mieux sa vie que vous il a qu'a assumer ou se faire virer pour incompétence si les SERPs partent en sucette.

L'outil de désaveu est une évolution et pas du tout un recul. Il suffit de le prendre comme ça, et de toutes les façons, on n'a pas le choix !
 
WRInaute accro
Ooops désolé philyd la totalité de mon message ne t'étais pas spécialement dédié j'ai juste cité la partie de ta phrase qui va dans le sens de donner de l'info a GG car elle était la dernière de ma lecture. Du coup, ma réflexion n'est pas a prendre comme une réponse exhaustive a ton post.
 
WRInaute accro
philyd a dit:
L'outil de désaveu est une évolution et pas du tout un recul. Il suffit de le prendre comme ça, et de toutes les façons, on n'a pas le choix !
C'est pas une évolution c'est juste de la sous-traitance a la wiki genre travail au black ... Après perso je sais même pas où il est et je ne vois pas ce qui m'oblige a l'utiliser.
Il aurait l'air bien con le GG si personne l'utilisait son outil ... :lol:

Après les sites qui n'ont pas GWT ils vont se faire pénaliser peut être ?
 
WRInaute accro
zeb a dit:
Après les sites qui n'ont pas GWT ils vont se faire pénaliser peut être ?

patience, les sanctions de devraient pas tarder :)

je suis du même avis que zeb, cet outil montre l'incompétence de google et on est obligé de se coltiner son boulot. Après malheureusement on a pas le choix et si on veut éviter ou se sortir d'une sanction manuelle et/ou "essayer" de réduire nos sanctions algorithmiques, on peut être contraint de passer par là à contre cœur. Ce qui est mon cas. j'ai mis 7 mois à me décider pour désavouer une poignée de liens pour le moment.
 
WRInaute discret
@Noren : effectivement je stagne, mais c'est déjà mieux que la décroissance ... Je fais quelques vérifs tous les trimestre on va dire. J'ajoute les domaines de scrap principalement mais au final je désavoue moins d'une vingtaine de domaines. J'utilise l'outil depuis le début de son existence.
Concernant le débat, je suis plutôt content d'avoir ce genre d'outil à disposition. Car il est affreux de ne pouvoir faire retirer ses liens. Là au moins on a le controle ! Et si google pouvait trouver un autre moyen il l'aurait fait. Il n'y a pas plus efficace qu'un humain pour détecter les sites à éviter, du coup on dénonce de cette manière. Ca permet d'éviter certaines erreurs d'algo et donc de dommages collatéraux. Et puis si ça pouvait définitivement tuer les sites de scrap ce serait génial.
Après, j'avoue que cela peut se compliquer pour celui qui a 1000 domaines pourris qui pointent vers lui ... De plus, ça reste un travail supplémentaire. Pas parfait mais au moins on peut supprimer sois-même les backlinks pourris (avec peut-être pour effet de décourager le negativeseo, puisqu'on peut annihiler les BL produits)
 
WRInaute accro
qu’entent tu par les domaines de scrap? tu penses aux seotruc, similarsitemachin, whois etc?
je me demande si ces sites peuvent nous poser de réelles problèmes, n'apportent-ils pas a leur façon des liens naturels !
même si je serais d'avis que tous ces sites virent des serps car ils sont totalement inutiles
 
WRInaute impliqué
Bonjour,

Sur un domaine assez récent, je vois apparaître des liens de ce genre de site :

findeen.com
zapmeta.fr
web-libre.org
domaintools.com

Est-ce que ce sont des domaines de ce type que vous désavouez ?
 
Olivier Duffez (admin)
Membre du personnel
zeb a dit:
Perso le Matt il peut se le carer au c*l son outil de désaveux de toute façon il recevra bien assez de plaintes pour tous les domaines de m*rd* genre whois et il est pas question que je passe du temps a combler ses lacunes. C'est son job, il gagne d'ailleurs largement mieux sa vie que vous il a qu'a assumer ou se faire virer pour incompétence si les SERPs partent en sucette.
heureusement qu'il y a le caractère * :)

par contre, tu ferais quoi si tu avais ton site pénalisé par des liens NSEO (pénalité manuelle ou algo) ? tu n'utiliserais pas l'outil de désaveu ?
 
WRInaute accro
NSEO, je ne sais pas, la dilution pourrait être une bonne approche (je connais aussi des 301 qui tiennent encore). Ensuite pour ce qui est des pénalité manuelles bah je pense que je ferait comme par le passé, je prend mes clics et mes clacs et je recommence au départ ...

Je ne pense pas qu'on doivent tout accepter de la part de Google. Bien sur c'est un raccourci séduisant quand on est au fond du gouffre mais ce sera quoi demains ? On va nous inviter a donner les noms des gens qui n'aiment pas Google ? Ou alors on va nous faire voter pour dire si un site est bon ou pas ? Bref on se prostitue jusqu'où ?
 
WRInaute accro
Oui mais là c'est gagnant / gagnant donc plus mitigé, on a encore la possibilité d'en profiter car sa notation affecte notre trafic en retour (par la dimension social) et c'est un service ouvert a tous, pas ciblé sur les gens qui gèrent des sites.
Donc on est pas (encore) dans une logique ou l'on deviens les quality rater de GG payés quedal et bénévole d'office.
 
Olivier Duffez (admin)
Membre du personnel
zeb a dit:
NSEO, je ne sais pas, la dilution pourrait être une bonne approche (je connais aussi des 301 qui tiennent encore).
la dilution est rarement une solution suffisante. Tu fais quoi quand tu remarques 1000 domaines backlinks de plus qu'avant ?

je ne vois pas de quelle 301 tu parles. Si c'est ta home qui reçois ces liens, tu la 301 ?
 
WRInaute accro
WebRankInfo a dit:
Tu fais quoi quand tu remarques 1000 domaines backlinks de plus qu'avant ?
Rien je ne surveille pas cela. Je ne peux donc réagir qu'a une pénalité qui impacte directement le trafic.
WebRankInfo a dit:
je ne vois pas de quelle 301 tu parles.
Des 301 qui sortent un domaine pénalisé et qui semblent tenir un bon moment (la ça fait 6 mois que j'observe ça tiens toujours)
 
Olivier Duffez (admin)
Membre du personnel
selon moi, faire une 301 d'une page ou d'un domaine pénalisé à cause de ses backlinks n'a jamais été une bonne idée sur le long terme. Ca marche le temps que l'algo réévalue le site, donc le temps d'une ou 2 mises à jour maxi.

ce n'est pas une solution satisfaisante pour des marques, encore moins quand cela n'est pas de leur fait (NSEO)...
 
WRInaute accro
Oui pour les marques on est d'accord c'est pour ça qu'en prévision j'ai pris tous les TLD :D (humour) ensuite oui moi aussi je pense que la 301 n'est pas pérenne, mais ... là je suis bluffé ... 6 mois que ça dure sur du concurrentiel donc je surveille et je croise les doigts pour que le copain qui en use ne retombe pas.
 
WRInaute discret
noren a dit:
qu’entent tu par les domaines de scrap? tu penses aux seotruc, similarsitemachin, whois etc?
je me demande si ces sites peuvent nous poser de réelles problèmes, n'apportent-ils pas a leur façon des liens naturels !
même si je serais d'avis que tous ces sites virent des serps car ils sont totalement inutiles

totalement d'accord .. ces sites ne servent a rien !

J'en ai 10 ou 20 ou 30 ... je sais plus trop, qui me fond des BL à la con .... je sais pas trop quoi en faire : desavouer ?
 
WRInaute discret
@noren : quand je parle de scrap c'est quand les sites reprennent un extrait du contenu pour essayer de se positionner sur le même thème. En revanche, je ne m'occupe pas des seotrucs comme tu dis, les sites qui font des stats diverses. Car ils ne se positionneront pas vraiment en concurrent puisque google sait bien qu'il ne s'agit pas de sites de contenu, mais plutôt des outils d'informations pour avoir des données sur d'autres sites (au putain, je me perds dans ma phrase ...)
Bref, je vire tous ceux qui se présentent comme des sites de contenu qui reprennent des extraits, tout ce qui est "boîte à outil" seo je ne touche pas. Mais je peux changer d'avis à l'avenir ...
 
WRInaute accro
noren a dit:
qu’entent tu par les domaines de scrap? tu penses aux seotruc, similarsitemachin, whois etc?
oui
d'autant plus qu'ils n'ont aucun intérêt pour l'internaute et peuvent même nous faire perdre des visiteurs : un certain nombre d'internautes ne semblent pas faire la différence entre aller sur une url et effectuer une recherche, d'autant plus que de plus en plus de navigateurs font, sciemment, la confusion des 2 utilisations.
Ce qui fait que l'internaute va taper une url complete dans gg. Et donc dans les serp proposées, que va-t-il trouver ? ton site (et encore, si ça ne correspond pas à une url bloquée par robots.txt) et ces parasites.
https://www.google.fr/search?q=https://www.webrankinfo.com/forum/quelques-q ... 0AXJroHgDQ



jolm a dit:
En revanche, je ne m'occupe pas des seotrucs comme tu dis, les sites qui font des stats diverses. Car ils ne se positionneront pas vraiment en concurrent puisque google sait bien qu'il ne s'agit pas de sites de contenu
au vu des serp, pas sûr du tout
surtout que, souvent, ils récupèrent des mots et expressions clés en crawlant nos sites
 
WRInaute passionné
Mon petit conseil, car ces "liens factices" m'ont bien fait galérer.

Ne vous occuper pas des sites genre "seotruc, similarsitemachin, whois", Google s'en contrefout.

Ce qu'ils entendent par "lien factice", c'est tout simplement un lien vers une page de votre site dont l'ancre contient mots clefs ou expression clef sur laquelle vous souhaitez positionner la page linkée.

Et peu importe la source, dans mes "liens factices" j'avais des blogs, des annuaires, WRI, des sites de CP, etc...

De plus je vous conseille de faire supprimer ou modifier ces liens (changer l'ancre de "mots clefs" à "http://www.example.com" suffit) plutôt que de les désavouer. D'une part car vous "dénoncez" un site qui vous référençait auparavant (et ça doit gonfler un certain nombre de webmasters et annuairistes...) et d'autre part car cet outil est pour moi plus une "rustine" qu'une réelle correction.

Perso dans SEO Soft j'avais une tripotée d'expression clefs sur lesquelles je n'avais plus aucune page de positionnée, même pas la home. Et bien désormais je suis classé sur toutes mes expressions, même si c'est parfois loin dans le classement.

Prochaine étape refaire des bons liens, mais cette fois ci sans ancres optimisées : www.example.com, voir le site...
 
WRInaute accro
Sésavoué une trentaines de sites en juillet qui récupéraient des résultats de recherche avec des dizaines de liens vers des pages internes en août .... (Une technique Ipower: la partie référnceur, pas nom de domaine ou hyébergement pour ceux qui connaissent + quelques vedettes du même style) et .... strictement aucun changement.

Le seul truc réellement intéressant, c'est de bloquer ces récupérations automatiques (ils récupèrent les résultats via Bing + petite analyse du contenu de chaque page reprise et mise sur leur site en commentaire). Résultats, plus repris dans leurs résultats et plus de liens.

Il y a deux ou trois plus rotords: pour ceux là, je prépare un truc un peu spécial: le même contenu mais bourré de mots supplémentaires (pas besoin d'expliquer que certains mots dans le contenu qu'ils vont afficher peut faire crouler un compte adsense :lol: )
 
WRInaute accro
ybet a dit:
Le seul truc réellement intéressant, c'est de bloquer ces récupérations automatiques (ils récupèrent les résultats via Bing + petite analyse du contenu de chaque page reprise et mise sur leur site en commentaire)
ouai, mais sur la partie récupération auto via bing, on ne peut rien bloquer :?
 
WRInaute accro
@ybet : comment fais tu pour empêcher ce type de copie? et bloquer ces sites? serait-il possible de faire un post uniquement pour ce sujet en expliquant de façon détaillée le procédé? :)
 
WRInaute accro
Leonick a dit:
d'autant plus qu'ils n'ont aucun intérêt pour l'internaute et peuvent même nous faire perdre des visiteurs : un certain nombre d'internautes ne semblent pas faire la différence entre aller sur une url et effectuer une recherche, d'autant plus que de plus en plus de navigateurs font, sciemment, la confusion des 2 utilisations.
Ce qui fait que l'internaute va taper une url complete dans gg. Et donc dans les serp proposées, que va-t-il trouver ? ton site (et encore, si ça ne correspond pas à une url bloquée par robots.txt) et ces parasites.

Si un site n'apparait largement pas avant ces "parasites", il a des problèmes...

Cela dit, je ne pense pas que les internautes tapent fréquemment une url complète dans le champs de recherche. Ils tapent souvent un nom de domaine... et ils cliquent sur des urls. Mais "taper" une url comme celle que tu donnes en exemple ? :lol:
 
WRInaute occasionnel
Hello,

Virer des liens c'est se rendre moins visible sur les autres moteurs, serait ce une manip pour (encore plus) truster ?

Certes GG apporte la majorité du traf malgré une sévère chute ces derniers mois (sans perte de trafic), de 60 à 82% suivant mes blogs...loin des 95% habituels

Si demain GG ferme ou si il décide de remanier ses algos ? on aura l'air malin d'avoir viré à tour de bras des links et d'avoir misé à 100% gogle
 
WRInaute accro
Virer des liens (les plus mauvais) c'est aussi se prémunir d'une éventuelle sanction manuelle. Mieux vaut prévenir que guérir.

Et de toute façon tous les autres moteurs de recherche s’appuient sur les méthodes google. Suffit de voir bing qui risque de passer en No provided prochainement. Ils finiront par appliquer les mêmes règles ou presque concernant les BL.

Très franchement si google venait à fermer je serais plus qu'étonner, on est pas près de le voir fermer celui là, bien au contraire...

De plus rien n’empêche de désavouer les très mauvais liens, et d'obtenir de meilleurs BL plus google friendly qui apporteront également des points positifs pour bing et les autres. mieux vaut tout faire pour repartir sur de bonnes bases avec Google, plutôt qu'attendre qu'il ferme ou espérer une montée soudaine et peu probable des autres moteurs. C'est malheureux mais c'ets comme ça :/
 
WRInaute accro
Marie-Aude a dit:
Cela dit, je ne pense pas que les internautes tapent fréquemment une url complète dans le champs de recherche. Ils tapent souvent un nom de domaine... et ils cliquent sur des urls. Mais "taper" une url comme celle que tu donnes en exemple ? :lol:
quand tu tapes une url dans la barre de chrome, c'est gg qui décide si c'est une recherche ou si c'est une url. Et il arrive fréquemment qu'il me bascule directement sur la recherche (en version android) et la confusion barre d'url/ barre de recherche se fait de plus en plus sur les dernières version des navigateurs
Marie-Aude a dit:
Si un site n'apparait largement pas avant ces "parasites", il a des problèmes...
sauf que tu sais très bien que les internautes ne cliquent pas obligatoirement sur le 1° lien et, s'ils cliquent sur le 4°, ça ne veut absolument pas dire que avant ils soient allés sur le 1°, le 2° et le 3°
Doc Lecter a dit:
Virer des liens c'est se rendre moins visible sur les autres moteurs, serait ce une manip pour (encore plus) truster ?
il ne faut virer que les liens venant de sites de m...
et ce n'est pas parce que bing privilégie encore (pour combien de temps) les bl faits de façon gros bourrin qu'il faut continuer de pratiquer de cette façon. faut en revenir à l'essence même du web : les bl c'était pour obtenir des visiteurs. Donc continuons à procéder de la sorte. On commençons pour ceux qui n'ont pratiqué que le bourrinage :mrgreen:
 
WRInaute discret
Désavouer des backlinks n'a jamais fonctionné.

J'ai fait des tonnes de CP sur une 50 aine de sites. Ils ont tous été pénalisés par pingouin.
J'ai fait des tests en fonction des sites.
Sur les uns je dénonçais 95% des liens, sur d'autres 85%, sur d'autres 75% et cela jusqu'à 10%.
Il y avait tout de même des bons liens dedans qui aurait du me faire réapparaitre si google prenait réellement en compte mon désavouage.

Aucun n'est jamais revenu d'entre les morts.
 
WRInaute accro
et tu ne t'es jamais demandé si la pénalité ne venait pas de ton contenu, plutôt que des bl externes ?
on trouve peut-être trop de fois le mot "jeu" dans ton site, non ?
des pages en duplicate /jeux-ninja-invincible-4395.html et jeux-ninja-invincible-4396.html qui sont les 2 premiers liens de ta liste
en plus, ton contenu doit se retrouver dans des centaines d'autres sites, non ?
 
WRInaute passionné
Ca n'empêche que l'on n'a jamais vu un site pénaliser remonter juste en désavouant des liens. ;-)

U type qui bossait comme un porc son netlinking... il bossait obligatoirement comme un porc tout le reste. :)
 
Discussions similaires
Haut