Interdire les sites de basse qualité de nous lier ?

WRInaute passionné
Bonjour,

A cause de Penguin et la nouvelle politique de Google sur les liens de qualité je me pose des questions. J'ai remarqué que j'obtenais pas mal de liens naturels vers un de mes sites, seulement voilà la qualité de ces liens est assez pourri, des vieux blogs des années 30, des sites tous moches faits par des amateurs, des listing de liens "gratuits" ou j'apparaît dedans, bref, pire que du spam en gros.

Partant de ce principe ça me fait un peu chier d'avoir autant de liens de sites de basse qualité, ça pourrait être vu comme du spam par Google. Quand t'as un newbie qui fait une liste de 500 liens et qu'il te met dedans, ça fait un peu ferme de liens.

A l'époque (le début du web) je crois qu'il fallait demander une autorisation avant de faire un lien vers un autre site et je crois même que certains sites interdisaient qu'on leur fasse des liens, c'était avant Google et leur algorithme.

Obtenir des liens naturels de très gros site c'est presque impossible de toute façon, donc ça ne viendra pas compenser ces liens pourris. Perdre du temps a contacter tous ces gens pour qu'ils virent mes liens ça me fait chier aussi, surtout que j'en obtiens très souvent, plusieurs par semaine.

Une idée ? Là je coince, le nouvel algo de Google devrait "bugger" dans ce type de cas, non ?
 
WRInaute passionné
Bonjour,

Je pense que c'est perdre du temps pour rien.
Je ne suis pas convaincu de cette politique visant à dégrader un site pour ses liens "pauvres" ou "mauvais".
GG sait très bien qu'il est difficile pour n'importe qui de faire modifier un contenu sur un site surtout lorsqu'il n'est pas hébergé sur le sol du site demandeur.

Lorsque l'outils de sélection des "mauvais" lien sera dispo, se sera autre chose. Tu pourras lui lister les BL que tu ne souhaites pas être pris en compte.
En attendant... bof.

Rod
 
WRInaute passionné
Ils sont chiants d'avoir ajouté le negative seo dans leur algo, certes les indiens feront moins chier et xrumer risque de se calmer un peu, mais bon, à cause de quelques pécos on vas tous payer.
 
WRInaute impliqué
si gg n'avait pas admis que le négative seo ne nuisait pas à la qualité de ces serp alors il n'aurait pas en projet un outils pour dénoncer des liens. cet outils est la preuve que le négative seo peut faire des dégats
 
WRInaute passionné
OU simplement que cet outils sera là pour lui faciliter le travail...
... et accessoirement connaitre les sites qui travaillent activement leur ref, ce qui ça, pourrait être préjudiciable vis à vis d'un type qui s'en moque. ;-)
 
WRInaute accro
XoSt a dit:
A cause de Penguin et la nouvelle politique de Google sur les liens de qualité je me pose des questions. J'ai remarqué que j'obtenais pas mal de liens naturels vers un de mes sites, seulement voilà la qualité de ces liens est assez pourri, des vieux blogs des années 30, des sites tous moches faits par des amateurs,
Bref exactement ce qu'il faut pour avoir un profil de liens naturels et de qualité...

XoSt a dit:
Quand t'as un newbie qui fait une liste de 500 liens et qu'il te met dedans, ça fait un peu ferme de liens.
Pas si il n'y a pas de liens réciproques (même en triangulaire).

XoSt a dit:
A l'époque (le début du web) je crois qu'il fallait demander une autorisation avant de faire un lien vers un autre site et je crois même que certains sites interdisaient qu'on leur fasse des liens
Oui mais ça n'a aucune valeur juridique.
 
WRInaute accro
rikew a dit:
alors il n'aurait pas en projet un outils pour dénoncer des liens. cet outils est la preuve que le négative seo peut faire des dégats
GG il est comme tous le monde il fait ce qu'il veux chez lui t'est tu demandé pourquoi cet outil simpliste a réaliser ne viens qu'après un gros filtre qui a planté pas mal de monde (le manchot), filtre qui lui même a suivi une vague de courrier avertissant certains que leur liage était foireux ....

Cet outil n'est pas là pour contrecarrer le NSEO, il est juste là pour contrecarrer les SEO et les identifier.

Perso j'ai observé tous les délestages de liens du Manchot et notamment ceux dénoncés comme "préjudiciables", j'ai aussi noté que tous ceux qui les avait fait retirer n'ont pas bougé d'un pouce voir même reculé un peut plus. Bref ayant les mêmes liens qu’eux souvent en pôle position dans la liste puisque massif, j'ai tout conservé et pas bougé (pas plus que pénalisé). Bref ça va servir a quoi ? le problème NSEO est déjà géré et surement bien sinon j'aurais comme d'autre plongé a cause des liens de M*rd* (vrais bon liens payant et ou massif) et l’outil ne peut donc avoir pour fonction que de prendre un peut plus d'info sur ceux qui l'utilise.

Dans tous les cas ça va forcement pas compter beaucoup dans l'équation position vue que pas mal de site très côtés chez GG n'utilisent absolument pas ses services. Pense a wiki par exemple qui se tape des liens dans tous les sens et qui tiens toujours la route, de plus je doute qu'il y ai un compte GWT derrière.

Démagogie googlienne ce formulaire ... je te fait plaisir et je t'enfume par derrière ...
 
WRInaute accro
Marie-Aude a dit:
Bref exactement ce qu'il faut pour avoir un profil de liens naturels et de qualité...
du même avis
rikew a dit:
si gg n'avait pas admis que le négative seo ne nuisait pas à la qualité de ces serp alors il n'aurait pas en projet un outils pour dénoncer des liens. cet outils est la preuve que le négative seo peut faire des dégats
pas convaincu. Je pense plutôt que ça servira à gg pour détecter les sites de basse qualité et voir, si besoin, à modifier ses algo pour les dévaluer dans les serp. Par site de "basse qualité", je fais plutôt référence aux sites pratiquant le scrapping, aux parasites qui reprennent les infos de nos sites pour, (soit disant) nous mettre en ligne des outils étudiant les points forts et faibles de nos sites, mais en fait pour se positionner dessus, etc...
les sites des années 90, sont juste "pas beaux", pas ce que l'on appelle "pourri" en terme de SEO
 
Discussions similaires
Haut