Comment dénoncer du référencement négatif

Nouveau WRInaute
Mon site a enregistré une chute important de positionnements les mois passés, sur des mots sur lesquels il était bien installé depuis des années). Ca fait un moment qu'on cherche une explication, et à force de sécher, on s'est décidés à tester SemRush.

Après une étude approfondie des résultats que m'a fourni une analyse de backlinks SemRush, j'ai fini par repérer des choses pas très catholiques, qui nuisent probablement au référencement de

Je vous passe les détails de ma recherche, mais je me rends compte que la moitié des sites (400 quand même !) que me flague SemRush répondent au même schéma :
- tous ces sites sont hackés, avec un même contenu sur chacune de leurs pages (site pas site, pas la même page sur tous les sites)
- tous ont un sitemap long comme le bras, avec une liste de plusieurs milliers de pages (toutes avec le même contenu, donc)
- les urls sont toujours construites avec les mêmes variantes d'expressions clé, avec en plus, à la fin, un "-k.html"
Enfin, si on visite ces pages avec un navigateur, le contenu est propre, respectable, mais n'a rien à voir avec mon activité, et le code source ne contient pas le lien incriminé par semrush.
Par contre, si on les visite avec un user agent dont les paramètres contiennent "bot" (SemRush m'ont donné la requête qui leur a permis de trouver ces pages), on tombe sur des pages HTML complètement différentes, avec sur chacune :
- des meta titles / h1, et du contenu mixant des mots clés de mon activité et des mots négatifs ("agressivité", "risque", etc...)
- plusieurs liens avec ancre vers mon site et pas mal de nos concurrents
- du contenu rotatif en fin de page, avec des liens vers des pages dont les thématiques sont sur un mot-clé qui correspond à mon activité, mais qui dans ce contexte, n'a rien à voir (ex : poêle à bois, poêle ustensile de cuisine).
Les pages ne sont pas indexée, mais tout ça me semble très hostile.
Et pour chacun de ces sites, si les pages en question ne sont pas indexées, le site l'est, sous un autre sous domaine.
De sorte que leurs sitemaps doivent tout de même fournir les liens vers les pages négatives, que les BOTS voient donc avec leur contenu négatif.

Ai-je selon vous intérêt à dénoncer ces pages ?
Est-ce qu'il est trop tard pour faire quoi que ce soit ?
 
Nouveau WRInaute
J'ai de mon côté également toute une floppée de page en -k.html qui viennent faire des liens sur un de mes sites. J'en ai dénoncé certains via la search console mais les domaines changement régulièrement.

J'ai subi une chute de trafic que j'estimais due à la mise à jour Helpful Content et la précédente, mais bizarrement j'ai reçu une proposition de rachat de mon site par une société qui avait perçu ma chute de trafic.

Peut-être que la chute n'est pas que liée aux mises à jour google pour le coup...
 
Olivier Duffez (admin)
Membre du personnel
ah oui j'ai vu aussi des BL issus de sites pourris avec URL en -k, mais aucun impact
 
Nouveau WRInaute
Statu quo de mon côté : même si ça me paraît légitime de dénoncer ces liens, je ne peux pas dire à Google ce qui cloche (cloaking), donc s'il ne comprend pas ce qui me gêne, ça risque de ne pas lui plaire.
Je me suis aussi dit que je pourrais contacter l'hébergeur de ces sites, en demandant la fermeture du site incriminé pour violation de droits d'auteur (beaucoup des images mises en cause sont les nôtres).
Ca peut fonctionner d'après vous ?
 
WRInaute discret
Bon je passais par là même si j'évite je vais donner mon opinion vu que j'en ai vu beaucoup.

1- On m'a toujours dit que ça ne servait à rien de dénoncer les liens "pourris" via l'outil Removal : d'après mon opinion SI ! Vu le format exigé (texte avec retour ligne) je pense que tout ça est mouliné dans un algorithme et que comme certaines applis routière on enrichi l'algo et on l'améliore grâce à nos ajouts. Du coup j'ai remarqué que depuis 2 ans certains domaines avec des extensions vraiment bidons n'apparaissent plus dans Console Search. Je pense que le filtre fonctionne de mieux en mieux donc c'est bien de continuer à l'enrichir. Je peux pas le prouver mais ça me paraît logique que Google fasse ça ! C'est son business model d'avoir des résultats pertinents et donc de supprimer les sites à spam.
2- Courir après tel ou tel site du coup ne sert à rien puisque tôt ou tard ils seront fermé (la norme c'est deux mois) et recréé automatiquement sous Linux => là du coup vraie perte de temps
3- Bien blindé son htaccess avec des filtres mais tester avant sur un site test, j'ai déjà eu de gros problèmes de SEO avec des blocages un peu trop poussé... faut arriver à trouver le bon équilibre.
4- Avec la crise et la concurrence malheureusement je ne suis pas très confiant sur l'avenir... Pourtant aujourd'hui passer les filtres à Spam Google demande tellement plus de travail, que je pense que ça va devenir plus rentable de faire "bien" plutôt que de faire "mal". Je pense que le moteur doit jouer là dessus.
 
Nouveau WRInaute
grosse perte de temps pour ces bidouilleurs qui pensent qu ils vont influencer le trafic des gros sites web.ils s'attaquent pas aux petits, aucun interet. toutes ces bidouilles ne fonctionnenent ni pour le refrencement ni pour le dereferencement. Apres, un sitemap qui donne a google les bonnes urls, c 'est bien. les liens pourris osef. il faut par contre ne pas repondre a leur requetes. la il faut un bon fichier robots.txt.
il y a plein de 40xx a repondre 401, 404, 410 https://developer.mozilla.org/fr/docs/Web/HTTP/Status/418 c'est comme ont veut
 
Nouveau WRInaute
mais au final, c'est etonnant que google est indexe ces pages web qui ne présentent aucun interet et qui de toutes facons ne généreront
pas 1 seule visite sur un site web (les milliers de .tk) comme quoi, le referencement oldschool, ca marche encore !!! (farm links)
on peut se consoler ainsi : meme avec panda ou bidule : 1 lien pourri dans le web est 1 lien aussi.
c'est du boulot aussi de creer des vrais liens pourris (et on les heberge en chine(c'est plus tranquille) et aussi sinon ca coute 1 bras pour en hegerger des milliers. du cou on prend aussi des .tk c'est moins cher !!!). c'est de la vraie optimisation, le négative seo, pour au final quedal
 
Dernière édition:
Nouveau WRInaute
Bon je passais par là même si j'évite je vais donner mon opinion vu que j'en ai vu beaucoup.

1- On m'a toujours dit que ça ne servait à rien de dénoncer les liens "pourris" via l'outil Removal : d'après mon opinion SI ! Vu le format exigé (texte avec retour ligne) je pense que tout ça est mouliné dans un algorithme et que comme certaines applis routière on enrichi l'algo et on l'améliore grâce à nos ajouts. Du coup j'ai remarqué que depuis 2 ans certains domaines avec des extensions vraiment bidons n'apparaissent plus dans Console Search. Je pense que le filtre fonctionne de mieux en mieux donc c'est bien de continuer à l'enrichir. Je peux pas le prouver mais ça me paraît logique que Google fasse ça ! C'est son business model d'avoir des résultats pertinents et donc de supprimer les sites à spam.
2- Courir après tel ou tel site du coup ne sert à rien puisque tôt ou tard ils seront fermé (la norme c'est deux mois) et recréé automatiquement sous Linux => là du coup vraie perte de temps
3- Bien blindé son htaccess avec des filtres mais tester avant sur un site test, j'ai déjà eu de gros problèmes de SEO avec des blocages un peu trop poussé... faut arriver à trouver le bon équilibre.
4- Avec la crise et la concurrence malheureusement je ne suis pas très confiant sur l'avenir... Pourtant aujourd'hui passer les filtres à Spam Google demande tellement plus de travail, que je pense que ça va devenir plus rentable de faire "bien" plutôt que de faire "mal". Je pense que le moteur doit jouer là dessus.
Bonjour,
J'ai également beaucoup de sites poubelles avec backlink vers mon site.
J'ai essayé à plusieurs reprises (perdu bcp de temps au final) de les dénoncer avec l'outil removal et non respect du droit d'auteur (ils utilisent mes photos pour mon lien) : ça ne fonctionne jamais, google ne localise pas le problème ou le site en question se désactive quelques jours puis réapparait...
Bref, j'ai pour ma part mis ces liens dans mon fichier disavow, mais je ne suis pas certain que cela ait une incidence.
 
Nouveau WRInaute
J'ai de mon côté également toute une floppée de page en -k.html qui viennent faire des liens sur un de mes sites. J'en ai dénoncé certains via la search console mais les domaines changement régulièrement.

J'ai subi une chute de trafic que j'estimais due à la mise à jour Helpful Content et la précédente, mais bizarrement j'ai reçu une proposition de rachat de mon site par une société qui avait perçu ma chute de trafic.

Peut-être que la chute n'est pas que liée aux mises à jour google pour le coup...
Je viens de poster le même problème avec des lettres -k, etc...
=> https://www.webrankinfo.com/forum/t/attaque-liens-toxiques-et-perte-de-position.200757/
 
Discussions similaires
Haut