Backlinks toxiques en masse

WRInaute occasionnel
Bonjour à tous,

Suite à une chute vertigineuse de trafic en provenance de Google le 10 juin j'ai vérifié mes liens entrants dans GWT.

Résultat : plus de 7500 backlinks en provenance de sites pourris, scrappers de SERP essentiellement. J'avais vérifié début mai sans remarquer rien de plus anormal que d'habitude, à savoir quelques site avec 70-100 liens.

Ces sites font des liens en masse vers mes pages internes, à coups de centaines de liens par page parfois, donc avec la même ancre.

Ces 7500 liens représentant la moitié de mes backlinks, la sanction est tombée : - 80% de trafic de la part du célèbre moteur.

A part quelques inscriptions sur annuaires en 2008, aucunes campagnes de linking n'a été entreprise sur ce site.

J'ai conscience que je n'ai guère d'options pour sortir de là, mais cela pourra sans doute aider quelqu'un d'autre, vérifiez vos backlinks très régulièrement !

Aucunes alertes dans GWT, rien, nada! Bravo mister Google, ça c'est de la transparence ! En un mois pas plus, sanction, quand bien même l'aurai-je vu, il semble que cela aurait été trop tard pour réagir et envoyer un ficher de désaveux.

Le site est pieces-occasion.com, je précise d'avance que ce nom n'a pas été choisi en fonction des mots clés, pas si populaire d'ailleurs... mais à l'époque nous n'avons pas eu d'inspiration. D'ailleurs il sort toujours sur ces mots là.

François
 
Olivier Duffez (admin)
Membre du personnel
c'est en effet un très gros pb. Il te reste à désavouer tous ces noms de domaine.

Par contre, pour anticiper et réduire ce risque, il faut avoir des liens depuis des sites à forte notoriété. Un site qui n'aurait que des liens de pages/site de très faible notoriété est susceptible de tomber plus facilement lors d'une attaque NSEO
 
WRInaute occasionnel
Bonjour Olivier,

Le fichier est envoyé, combien de temps avant de voir un hypothétique résultat... je n'en sais rien et ce que j'ai lu ne me rassure guère.

Par contre, pour anticiper et réduire ce risque, il faut avoir des liens depuis des sites à forte notoriété. Un site qui n'aurait que des liens de pages/site de très faible notoriété est susceptible de tomber plus facilement lors d'une attaque NSEO
Il y a des liens de sites de bonne notoriété, mais souvent des forums, j'avoue avoir laissé faire le naturel.
Peut-on appeler cela du NSEO, ce n'est pas volontaire.

De toute façon, j'étais en courte finale ( analyse et mockup faits ) pour tout refaire, et de façon beaucoup plus moderne et propice à la stratégie que tu évoques, y a plus qu'a ;)

Merci pour ce petit mot empreint d'empathie, ça fait toujours plaisir.

François
 
WRInaute discret
Hello,

Juste une petite info que j'ai pu voir aussi à mon échelle web: certains sites ont le défaut de linker en follow des messages sur TOUTES leurs pages (derniers commentaires dans le footer par ex...- j'en avais fait les frais un jour en commentant un post et en indiquant mon url dans le formulaire. Résultat plus de 1600 backlinks à partir du MÊME commentaire.
Au fil du temps, le nombre a diminué; j'imagine que d'autres commentaires ont été postés dans les "last comments"... mais il me reste toujours 126 liens de ce bête site qui n'a par ailleurs aucun rapport avec le mien T_T

En tout cas sympa l'idée de désaveu, je ne connaissais pas et vais essayer aussi ^^
 
WRInaute impliqué
Le problème surtout c'est une rétrogradation algo donc sur des grosses quantité de liens, ne rien oublier, car l'algo empile les filtres, et le processus devient incontrôlable, en outre si le nettoyage est parfait, le problème c'est quand on en sort ! là certains sites attendent depuis septembre 2013 ! ils sont ravis ! tout cela est vraiment incompréhensible de la part de Google
ils savent qu'il y a de nombreux cas de négative SEO, il faut croire que ça arrange beaucoup de monde, il faudrait une mise à jour automatique au moins tous les 3 mois, pour être équitable.
 
WRInaute discret
Mais donc ce que soulève en filigrane ce problème c'est qu'on peut facilement se faire couler par la concurrence (ou les torpiller si on est des enfoirés) en se faisant pourrir nos BL...
C'est juste incroyable o_O
 
WRInaute impliqué
Parfois c'est le cumul scrappers de SERP, + attaque frontale, il est indispensable de s'adjoindre un outil de contrôle automatique des backlinks lorsque l'on s'est pris un tir groupé.
 
WRInaute occasionnel
JeRetiens a dit:
Mais donc ce que soulève en filigrane ce problème c'est qu'on peut facilement se faire couler par la concurrence (ou les torpiller si on est des enfoirés) en se faisant pourrir nos BL...
C'est juste incroyable o_O

Il faut relativiser, mon site n'est pas hyper costaud, manque texte d'une part et ancres des liens internes peut-être sur-optimisés. Mais il est assez difficile de faire du texte sur chaque page dans une base de données de pièces détachées... Pour les liens je pensais que répéter la marque avec le modèle était plus pertinent, je pense que maintenant il faut faire très attention à ce genre de choses.

Malgré tout, je ne me considère pas comme un tricheur ou un spameur ;)

Ajouter du texte était déjà en projet même si cela revient à faire un site en fonction des moteurs. Pour les liens, j'hésitait, craignant d'y perdre, plus la peine de se poser la question maintenant !

Pour résumer, il faut un site hyper clean on-site et un profil de liens contenant pas mal de sites bien trustés pour résister à ce genre de problèmes comme le dit Olivier.

François
 
Nouveau WRInaute
Pour résumer, il faut un site hyper clean on-site et un profil de liens contenant pas mal de sites bien trustés pour résister à ce genre de problèmes comme le dit Olivier.

Pour résumer, Google a compris qu'il n'arriverait jamais à assurer des résultats pertinents avec des algorithmes, et donc il a déplacé le problème au niveau de l'interface entre le clavier et la chaise : désormais le tri est opéré par ceux qui pourrissent les sites des concurrents, et Google compte les points (nb de BL pourris). Accessoirement, les sites dézingués achètent de l'Adwords quand ils comprennent qu'ils ne retrouveront jamais leur ancien niveau de trafic naturel. Ou alors repartent de zéro. Mais s'ils sont dans le collimateur d'un concurrent, je leur souhaite bon courage.
 
WRInaute discret
je me demande pourquoi déjà google ne fait-il pas une chose SIMPLE :

ne pas prendre en compte les liens des commentaires dans les blogs ! là où sont la majorité des SPAMS !
 
WRInaute accro
dave_la a dit:
ne pas prendre en compte les liens des commentaires dans les blogs ! là où sont la majorité des SPAMS !
Ben... parce que ce n'est pas là que se trouve la majorité des spams :lol: :lol:
 
WRInaute occasionnel
Bonjour à tous,

Actions engagées après l'envoi du fichier de désaveu:

- Suppression de répétitions dans certaines ancres des liens internes,
- Simplification des 'title' des liens qui reprenaient le title de la page de destination,
- Suppression du fil d'ariane, c'est très pratique pour les internautes :D
- Ajout de texte

Il est à noter que certaines optimisations n'avaient pas été faites dans ce but.

D'autre part, en 2007-2008, si je n'avait pas optimisé les liens internes, je n'aurait pas ranké convenablement.

J'en viens à penser qu'il faut anticiper les changements d'algo afin de coller au futures specs :
Trop tôt on ne ranke pas, trop tard c'est la sanction :(

On verra ce que cela donne dans les mois qui suivent...

François
 
Discussions similaires
Haut