Bientôt un outil pour signaler à Google tout mauvais lien pointant vers votre site

  • Auteur de la discussion Auteur de la discussion salva
  • Date de début Date de début
WRInaute accro
Matt Cutts a indiqué hier sur un salon américain que Google va proposer, d'ici à trois mois, un outil permettant à un webmaster d'indiquer à Google qu'un backlink pointant vers son site est de mauvaise qualité, lutte contre le 'negative SEO' oblige...
Via
Source
 
WRInaute passionné
Quelle fausse bonne initiative.

A nous de faire le boulot de recherche des "pas gentils" alors que dans l'absolu, un webmaster ne devrait avoir à s'occuper que de son site.
Mauvaise pioche pour ceux qui se moquent du SEO et du linking externe, oui, y en a bien plus qu'on ne pense, qui verront leur site dégringoler.
 
WRInaute passionné
Et puis surtout, qu'ils fournissent le type de lien de mauvaise qualité.

Perso, comme quasi tous les sites du web, je suis sur plein de site "d'analyse de trafic", de pseudo whois / information complémentaire, d'estimation de la valeur du site, de moteur de recherche bidon, bref tout des sites à spam qui "référencent" la toile, et y en a des centaines.

On va devoir faire le tour de tout ce genre de sites ?
 
WRInaute passionné
@tonguide : le problème c'est pas forcément le lien qu'ils te font mais plutôt le fait qu'ils utilisent (en toute impunité souvent) des techniques de génération automatique de contenu qui devrait plutôt faire l'objet d'un spam report.
 
Olivier Duffez (admin)
Membre du personnel
ça pose pas mal de questions, voici mon point de vue !

Negative SEO, Penguin : Google fournit un outil pour désavouer un backlink​

Matt Cutts vient d'annoncer la prochaine disponibilité d'un outil pour qu'un webmaster puisse désavouer un backlink, c'est-à-dire indiquer à Google que le lien est de mauvaise qualité, qu'il n'en est pas responsable et qu'il ne doit pas compter dans le référencement.

Suite à la mise en place du changement d'algorithme Penguin, les webmasters craignent (de façon justifiée !) que le Negative SEO prenne de l'ampleur. En d'autres termes, qu'il soit possible de nuire au référencement des autres. Il faut dire que plusieurs exemples concrets ont été discutés sur les forums ces dernières semaines, et que les critères de Penguin laissent en effet penser qu'un site peut être pénalisé s'il reçoit trop de liens artificiels.

Matt Cutts parle de Penguin (conférence SMX)


Matt Cutts et Danny Sullivan au salon SMX Juin 2012 (image SearchEngineLand)
Matt Cutts a donc annoncé à Danny Sullivan que son équipe envisage de fournir un outil d'ici quelques mois, permettant de désavouer un lien (ou plusieurs). Voici ce qu'il a dit exactement :
Some have suggested that Google could disavow links. Even though we put in a lot of protection against negative SEO, there’s been so much talk about that that we’re talking about being able to enable that, maybe in a month or two or three.
On peut imaginer que cet outil serait intégré à Google Webmaster Tools et qu'il permettrait de réduire les risques de Negative SEO. Les webmasters pourraient en effet décider d'indiquer qu'ils ne veulent pas que Google tienne compte d'un ou plusieurs liens en particuliers.

Dans un premier temps on peut se réjouir de cet outil. Après tout, c'est une solution de plus à notre disposition, et nombreux sont ceux qui l'avaient demandé ces dernières semaines. Mais ensuite on peut se poser quelques questions :

  • N'est-ce pas un signe d'impuissance de la part de Google ? Est-ce vraiment à nous de faire ce travail ? Cela ne devrait-il pas être celui de Google ? Pourquoi Google ne désactive pas tout simplement la puissance d'un lien, quand il juge que ce lien est artificiel ?
  • Comment faire concrètement si on découvre un très grand nombre de liens ? S'il y en a des milliers, répartis sur des milliers de sites, faut-il les traiter un par un ? Si des personnes spamment le web en postant des centaines de milliers de liens vers un concurrent, pourquoi le webmaster concerné devrait avoir à nettoyer ce spam ?
  • Comment savoir s'il faut vraiment désavouer un lien ? Comment savoir s'il est considéré comme du spam par Google ? En d'autres termes, comment savoir si le lien est toxique pour son référencement ?
  • N'y a-t-il pas un risque d'affaiblir son référencement si on désavoue des liens qui en réalité étaient bien considérés par Google ?
  • A l'inverse, que va penser Google d'un site dont la plupart des liens sortants sont désavoués par d'autres webmasters ?
  • Quels sont les impacts sur la e-réputation ? Si un client donne son avis sur un site en faisant un lien vers lui avec des termes négatifs dans le texte de lien, le site concerné risque de sortir sur des termes. S'il suffit au webmaster de désavouer ces liens, c'est tout un pan de l'algorithme de Google qui est modifié...
 
WRInaute discret
Si j'ai bien compris, je fais du blackhat, si ça marche ok, si ça marche pas je le signale à Google.. ok pourquoi pas.
 
WRInaute passionné
:-) Ca va débattre sec ici...

En tout cas, les choix de Google en ce moment sont très... discutables ! C'est le moins que l'on puisse dire...
 
WRInaute accro
M&B Multimédia a dit:
choix de Google en ce moment sont très... discutables
+1 et ça corrobore bien le sentiment d'impuissance que soulève Salva.

Si encore on voie sortir une section "nouveaux liens sur la période xxxx" dans GWT avec le lien ver le formulaire de signalement ça peut être "gérable", mais ça enlève rien au fait que ça commence a gonfler on va bientot passer plus de temps a tweeter, plussoyer, liker, spam reporter, link reporter, etc ... qu'a produire du contenu et interagir avec le lectorat ...
 
WRInaute occasionnel
Je trouve cela très bien de pouvoir désactiver des liens, surtout pour des sites qui datent depuis des lustres ou avant, le référencement était plus souple. Cela démontre aussi à GG que l'on est pas des spammeurs puisque l'on pourra bloquer des liens.

Comme Google dit et se dédit à chaque fois en fonction de l'avancée de ses algos, au moins on aura le pouvoir d'effacer un lien permis "avant" une modification de l'algo. Un site des années 2000 traînent des liens qui étaient permis auparavant et désormais est pénalisé à cause de ces liens "autorisés" à l'époque.

Non, pour moi, c'est une grande nouvelle: plus besoin de contacter des webmasters qui ont fuient le net depuis des lustres, mais dont les liens existent encore.

Seul problème, MC aurait dû mettre en place ce nouvel outil "AVANT" le manchot... Il y aurait eu moins de dégâts, c'est certain. Sans compter que, pour Google, ce nouvel outil est une sorte de... "on s'excuse". C'est pour moi une évidence.
 
WRInaute accro
Oui mais c'est aussi dévoiler publiquement a google ta stratégie SEO ... pas forcement très bon de lui expliquer que tel lien pour moi il est "OK" et tel autre "je l'assume pas". Là il est en train de s'introduire encore plus dans notre univers privé (pro) et lui donner des billes pour ça c'est vraiment pas bon (même si un tel outil peut rendre des services c'est certains).

Ensuite perso l'argument qui va dans le sens des "vieux" sites je le trouve pas forcement bon car après tout un vieux site qui plonge c'est un nouveau site a concevoir et ça c'est direct bénéfice pour nous ... Faut parfois savoir se détacher de vieux trucs qui ne fonctionnent plu et se mettre a la page.
 
WRInaute accro
Pratique pour Google, ça va permettre à la fois de repérer les webmestres qui ne dénoncent pas les liens pourris vers leurs sites, et les sites dont les liens sont dénoncés comme pourris.
Vous voulez couler un annuaire ou un forum ? inscrivez-vous, puis dénoncez le lien :twisted:
 
WRInaute passionné
Il faudrait qu'ils donnent la liste des liens pourris pour pouvoir les supprimer ou pouvoir les contacter si on estime qu'il est conforme. Ca ne coûte rien de rêver !
 
WRInaute occasionnel
zeb a dit:
Ensuite perso l'argument qui va dans le sens des "vieux" sites je le trouve pas forcement bon car après tout un vieux site qui plonge c'est un nouveau site a concevoir.

J'ai dû mal m'expliquer: quand je dis "vieux sites", cela ne signifie pas que le site n'est pas à jour graphiquement et tout le tralala. J'aurai du dire des "vieux liens" qui pointent vers un site dont le NDD est ancien. Ce dernier a des liens généralement plus acceptés.

Et les vieux NDD, c'est comme le bon vin ou le 78 tours, faut avoir de la patience... mais cela est une autre histoire.

Bref, moi, je trouve que cette nouvelle est une grande avancée. Avoir le pouvoir de bloquer des BL, c'est le top.
 
WRInaute accro
philyd a dit:
Bref, moi, je trouve que cette nouvelle est une grande avancée. Avoir le pouvoir de bloquer des BL, c'est le top.
Oui je partage ton avis sur cette possibilité c'est surtout ce que cela implique autour comme possibilité qui me "fait peur".
 
WRInaute passionné
Je pense qu'on aura tendance à supprimer des liens qui donnent du poids à nos sites mais que nous considérons pourris... on vas surtout niquer notre référencement avec ça.

Il faudrait plutôt un "avertisseur" de liens pourris, mais dans ce cas les spammeurs pourraient identifier les liens de merde directement et ça leur faciliterai la vie.
 
WRInaute impliqué
Effectivement, sur quelques dizaines de sites, mes 2 ou 3 touchés par Pingouin sont les plus anciens. Il y a 5 ans ou plus la qualité des liens était une notion assez...relative.

Depuis Pingouin, il peut arriver que d'anciens sites bien dans la thématique de la requète mais avec d'anciens liens, peuvent passer derrière des sites moins pertinents.
Et du coup les SERPs deviennent parfois bizarre. Chez Bing & Yahoo ils doivent se frotter les mains :lol: .
 
WRInaute discret
Google sait très bien qui est qui.
Après avoir fait un ménage juteux pour Adword, Matt applique la bonne vieille règle contre la puissance de feu des webmasters:
"DIVISER POUR MIEUX RÉGNER"
AMHA... :mrgreen:
 
WRInaute passionné
De toute façon, c'est à GG de donner du poids ou non à un lien. Il n'a pas à demander l'avis d'un webmaster sur un lien en particulier.
 
WRInaute passionné
En parlant de ça, je note une amélioration de mon nombre d'impressions et de clics chez Bing et Yahoo, la relève est en marche les amis ! VIVA LA REVOLUCION !
 
Nouveau WRInaute
Salut,

Merci pour le partage, ce sera effectivement un outil très utile. J’ai déjà eu des soucis avec les mauvais liens menant vers mon site. Je ne sais pas si c’est une forme d’attaque pour pénaliser un site, c’est bizarre.
 
WRInaute passionné
D'un autre coté, depuis des années, lorsque je vois un referrer que je n'aime pas dans les stat, je bloque toute visite depuis celui-ci, humains comme bot.
J'ai pas attendu GG pour faire le nettoyage.
Ce qui me gène, c'est que si GG propose un outils pour le faire, cela deviendra une obligation.

Rod
 
WRInaute discret
Bonjour,

J'utilise depuis peu linkdetox pour déterminer la qualité des liens, je ne sais pas si vous connaissez cet outil mais c'est plutôt pas mal, bien fichu et ca permet de contacter directement le webmaster à travers l'outil grâce au coordonné fournis dans le WHOIS ( quand il est donner biensur ).

Depuis janvier dernier j'ai reçu ce p**** de message et j'arrive pas à m'en défaire !

Espérons qu'avec ce nouvel outil proposé d'ici quelque mois on retrouve un semblant de visibilité .
 
Discussions similaires
Haut