Attaque negative seo : comment lutter ?

Nouveau WRInaute
Bonjour à tous,

je me renseigne depuis plusieurs jours sur les attaques negative seo car mon site en subit une.

Des milliers de domaines différents (us, ru, ch...) duppliquent des articles que j'ai écrit, les font pointer vers des url inconnues sur mon site, ce qui crée des 404.

Conséquence : Google m'a immédiatement blacklisté : je ne suis plus présent sur les résultats...

J'ai identifié les domaines grâce à semrush et j'ai tout listé dans un .txt pour l'envoyer à Google et désavouer les liens :
https://www.google.com/webmasters/tools/disavow-links-main?hl=fr

Mais concrètement, que faire ? Quelqu'un a-t-il déjà subit ce genre d'attaques ?

Les 404 générées en masse sont du genre :
domaine.com/nom-article/amp/tireàlacon

Mon site gêne énormément la concurrence c'est une évidence.

Merci pour vos éventuels conseils.
 
Olivier Duffez (admin)
Membre du personnel
Je n'ai pas tout compris désolé. Ils copient un article, le publient sur leur propre site, et mettent dedans un lien vers une URL de ton site qui s'avère être inventée et donc en 404. C'est ça ?

Tes pages "normales" ont-elles été désindexées ? ou bien elles le sont mais la position moyenne s'est fortement détériorée ?
 
Nouveau WRInaute
Hello,

L'attaque est subie en deux type :

Des milliers de sites qui copient / collent juste les images de mes postes dont les liens proviennent directement de mon site. Exemple d'un lien générant un backlink : http://molcocn.com/panier-a-bois-en-metal.html

Des milliers de sites qui copient / collent les articles et qui les font pointer soit vers l'article original, sans 404, soit vers une 404.

Mes pages normales ont été désindexées, par exemple en recherchant la page avec le mot clé spécifique via :"site:xxxxxx.com "mot clé"", rien n'apparaît.

Seulement une partie a été désindexée, mais les autres pages ont toutes été déclassées.
 
Olivier Duffez (admin)
Membre du personnel
qui copient / collent les articles et qui les font pointer
désolé mais je ne comprends toujours pas ce que signifie "et les font pointer"

sinon, depuis ce matin il semble y avoir un truc bizarre avec plein de pages qui se font désindexer de Google
 
Nouveau WRInaute
Prenons l'exemple de mon site A qui est propre et B le groupe de milliers de sites chinois qui attaque.

Le groupe B copie / colle en masse images et textes en masse. Dans chaque page copiée est intégrée un lien html vers le site A.

Ce lien pointe soit vers l'article original du site A, soit vers une page n'existant pas du site A.
 
WRInaute discret
j'ai du mal à suivre
c'est possible d'avoir une page du site avec du contenu et un page des fameux sites russes
 
WRInaute discret
j'aimerai bien avoir la page originale de cette page http://tiempodeshow.com/ceinture-voiture-chien.html

Mais,deja j'ai quelques doute sur le negative seo car si c'est un contenu spiné c'est donc pas le meme contenu que ton site du coup normalement c'est pas un probleme ( le contenu 100% dupliqué n'a que peu de valeur aux yeux de google) ou est le lien vers ton site sur la page ? car moi j'en trouve pas

Pour le moment, pour moi, rien de flangrant sur les exemple pour etre blacklisté par google du moins avec l'url
 
Nouveau WRInaute
Il y en a des milliers, j'ai l'impression que la page change de contenu régulièrement...

Vu que l'attaque qui me crée des 404 rajoute toujours le même type de mots à la fin, est-ce qu'il est judicieux de créer une règle htaccess afin de rediriger toutes ces fausses url vers l'article de base ?

Type :
RewriteRule ^(.*)/motsuspect/(.*)$ /$1/ [R=301,L]

Merci
 
WRInaute discret
des liens vers des pages 404 ne penalise pas un site web
et si les sites sont mauvais ne fait surtout pas de redirection vers une page de ton site

clairemement il faut chercher ailleurs
 
Nouveau WRInaute
Donc je ne vais pas tenter de redirections pour l'instant.

Clairement il y a un gros soucis et je n'arrive pas à savoir d'où ça provient. Seuls les chiffres parlent :

Erreurs 404 générées par les sites qui m'attaquent depuis mars :
Capture d’écran 2019-04-05 à 16.15.20.png

Chute seo depuis mars :
Capture d’écran 2019-04-05 à 16.16.07.png
 
Nouveau WRInaute
Ce site avait légèrement chuté suite à la mise à jour, mais pas à ce point.
Le site et son maillage est propre. Le déclassement de pages est intervenu il y a seulement quelques jours, suite aux backlinks negatifs visant à le déclasser / chuter
 
WRInaute discret
effectivement ca fait beaucoup mais je vois pas de lien entre des bl vers des 404 et la chute des visite sur le site. Pour moi il faut chercher ailleurs, il y a peut-etre des "vrai pages" qui sont passé en 404
 
WRInaute occasionnel
c'est quand même intéressant comme cas.
Et il faut vraiment vérifier qu'il n'y a pas des 404 qui traineraient dans le site.
Pas forcément des 404 visibles, mais via des liens foireux internes, par exemple de plugin..
Dejà passer au moins XENU pour les 404 qu'on detecte facilement
Parce que si on veut emmerder un site, on peut sur le papier effectivement chercher les 404, mieux les 50x
et en engorger le site et rapepler à google qu'il y a plein effectivement de 404 sur un site
Ca marcherait ? ca ne marcherait pas ? c'est comme le SEO faut tester.
C'est simple : par principe shadock : 0 requêtes doivent sortir d'un site avec une erreur ou des 404

Donc rediriger vers une page bidon. Pour la copie des images ou tout autre,tant que c'est sur des sites qui valent peanuts et seront crawle bien après l'original : osef
 
Nouveau WRInaute
Hello !
J'ai vérifié, aucune 404 de mon côté, pas de plugins foireux qui en génère.

Elles sont arrivées massivement et subitement.

Une partie passe en "Erreur 404" sur la search console, et une autre passe en "Anomalie lors de l'exploration : exclues".

Certaines de mes pages sont réapparues ce soir dans les résultats, aux mêmes positions. D'autres sont toujours absentes.

Je vous tiens au courant de la suite...
 
WRInaute occasionnel
et les logs ? ils donnent quoi ?
Parce que c'est toujours incroyable et impossible à convertir le chaland sur le fait que c'est dans les logs qu'il y a toutes les informations,(pour autant qu'on ai pris la peine tout de même de décider ce qui va s'afficher dans les logs). Une ip redondante qui emmerde, c'est le plus simple à trouver. Il suffit de trier les résultats par ip (!! de ne pas déduire n'importe quoi, il y a des checks parfois toutes les 15secondes qui peuvent être normaux et servent par exemple a vérifier qu'un site est live. Aussi les ip des bots de google et autre : ne pas les bloquer...). On voit bien ce qu'elle demande, le temps de réponse du serveur, le code de retour... Une 404 qu'on aurait pas détecté avant, encore plus simple, il suffit de cherche le nombre 404 dans le log et d'agir avant que google nous l'affiche.......
On voit direct qui essaie d'embrouiller parce qu'il essaie d'accèder à des trucs, parce qu'il passe des paramètres anormaux....;
"C'est toujours hahurissant de voir que des personnes qui font du woaib découvrent dans le search console qu'il y a des 404 alors qu'elles ont au pire le lendemain le résultat dans le log ou avant si ca fréquence de check leur importe plus. Même les hébergeurs sur des machins mutualisés fournissent au moins les los des visites."
Pas le choix, un site, s'il a de l'importance, if faut le suivre via les logs (et parfois même en live, mais c'est autre chose)
 
WRInaute discret
et les logs ? ils donnent quoi ?
Parce que c'est toujours incroyable et impossible à convertir le chaland sur le fait que c'est dans les logs qu'il y a toutes les informations,(pour autant qu'on ai pris la peine tout de même de décider ce qui va s'afficher dans les logs). Une ip redondante qui emmerde, c'est le plus simple à trouver. Il suffit de trier les résultats par ip (!! de ne pas déduire n'importe quoi, il y a des checks parfois toutes les 15secondes qui peuvent être normaux et servent par exemple a vérifier qu'un site est live. Aussi les ip des bots de google et autre : ne pas les bloquer...). On voit bien ce qu'elle demande, le temps de réponse du serveur, le code de retour... Une 404 qu'on aurait pas détecté avant, encore plus simple, il suffit de cherche le nombre 404 dans le log et d'agir avant que google nous l'affiche.......
On voit direct qui essaie d'embrouiller parce qu'il essaie d'accèder à des trucs, parce qu'il passe des paramètres anormaux....;
"C'est toujours hahurissant de voir que des personnes qui font du woaib découvrent dans le search console qu'il y a des 404 alors qu'elles ont au pire le lendemain le résultat dans le log ou avant si ca fréquence de check leur importe plus. Même les hébergeurs sur des machins mutualisés fournissent au moins les los des visites."
Pas le choix, un site, s'il a de l'importance, if faut le suivre via les logs (et parfois même en live, mais c'est autre chose)
encore faut il savoir où les lire, les lire et surtout les interprèter
je n'ai pas testé mais cet outils sont franchement bien https://seolyzer.io/fr/
 
WRInaute occasionnel
Alors les logs visiteurs, un hebergeur de les donne dans son interface.
Si tu as un serveur a toi, alors regarde 3 seconde la doc Apache ou IIS ou autre.
Les logs, c'est simple, ce sont des fichiers ou les champs sont séparés par des ;
dans 99 % des cas.
Sauf si tu indiques a ton serveut wouaib d'entregister, moins de valeurs ou plus, par défaut tu as tout ce qu'il faut.
Tu prends ton fichier log (par défaut il y en a 1 par jour, en général, ca ce spécifie, ou si tu as 3 visiteurs par jour, il y a une sorte de gos log par mois ou plus
Bref : tu prends le fichier log, tu le bourres (il faut quand même l'importer) dans excel ou sa version libreoffice, ou dans access ou dans toute base de données, mysal, oracle MsSqlver (100% des base de données savent importer ces ficiers).
Donc simple, ils s'appellent truc.log ton hebergeur au pire il les place dans un zip)
On les mets dans excel et zou, ca sort par colonne, cahque requete : le hsote; l'url, l'ip , le useragent, la requete, le code de retour, le temps de reponse
On lourde par filtrage tous les css, js
On regroupe par IP....;
Si on a mis dans des DB, chaque jour, automatiquement; Hop SQL, graphique. Aucun ! Aucun !!!!!! Aucun !!!!! system extérieur, a commencer par le search console a plus de données que nous. Ils ont au mieux ce qu'il peuvent capter par le javascript sur un site. On les utilise pour gagner du temps, et envoyer des courbes au boss ou au client, il suffit que la courbe monte (ce sont toute des courbes de sondes, souvent sans unité, sans panel de valeur
 
Discussions similaires
Haut