Outils calcul du nombre de backlinks

WRInaute passionné
Salut à tous,

J'ai essayé plusieurs outils online pour connaitre le nombre de backlinks d'un site mais aucun n'est fiable :(

Quels outils gratuits utilisez-vous pour connaitre le nombre de backlinks d'un site ?

Le nombre de BL indiqué dans GWT est-il fiable ?

Bruno
 
Olivier Duffez (admin)
Membre du personnel
@UsagiYojimbo : oui et ce sont les seuls au monde (hormis les moteurs de recherche) à créer leur propre base, les autres (backlinkwatch ou yooda par exemple) ne font que reprendre ces données
 
WRInaute passionné
UsagiYojimbo a dit:
OpenSiteExplorer, aHrefs, MajesticSEO sont les principaux sites que j'utilise pour faire cela, hors GWT.
J'ai essayé toutes ces solutions : ils m'indiquent tous 10 fois moins de backlinks que GWT, donc ils ne sont pas fiables du tout.

Quelques questions me viennent à l'esprit :

Ils ne sont pas fiables sur le nombre de backlinks, c'est un fait avéré, mais pourquoi le serait-il sur les autres paramètres SEO ?

Comment se fier a des logiciels qui ne disposent que d'une partie des données à analiser ?
 
WRInaute passionné
poupilou a dit:
UsagiYojimbo a dit:
OpenSiteExplorer, aHrefs, MajesticSEO sont les principaux sites que j'utilise pour faire cela, hors GWT.
J'ai essayé toutes ces solutions : ils m'indiquent tous 10 fois moins de backlinks que GWT, donc ils ne sont pas fiables du tout.

Quelques questions me viennent à l'esprit :

Ils ne sont pas fiables sur le nombre de backlinks, c'est un fait avéré, mais pourquoi le serait-il sur les autres paramètres SEO ?

Comment se fier a des logiciels qui ne disposent que d'une partie des données à analiser ?

C'est ton analyse à toi... La majorité considère que ce sont de très bon softs. Ils sont développés par des boites leaders sur le marché du SEO etc etc...
 
WRInaute passionné
patapon87 a dit:
C'est ton analyse à toi... La majorité considère que ce sont de très bon softs. Ils sont développés par des boites leaders sur le marché du SEO etc etc...

Le fait qu'ils ne sont pas fiables dans le calcul du nombre de BL est avéré (tout du moins dans mon cas, 10 fois moins de BL c'est pas une paille !!!!), t'as qu'à faire le test avec tes propres sites et comparer avec GWT.

D'autre part, pour que ces soft renvoient des données à peu près correct faut-il encore qu'ils puissent crawler les sites, si je les bloque par htaccess ou adresse IP, ils vont crawler et récolter quoi comme infos ?
 
WRInaute accro
Poupilou, tu cherches un outil fiable qui ne puisse pas être bloqué par le htacesss, et + complet que GWT ? ... tu as conscience que par nature, ca ne peut pas exister ce que tu demandes ?
 
WRInaute passionné
finstreet a dit:
Poupilou, tu cherches un outil fiable qui ne puisse pas être bloqué par le htacesss, et + complet que GWT ? ... tu as conscience que par nature, ca ne peut pas exister ce que tu demandes ?
Je suis tout à fait d'accord avec toi :D

Je viens de comprendre que ça ne sert à rien que j'achète un soft SEO puisqu'ils sont incomplets dans leur collecte d'infos donc forcément faux dans leur analyse. Je vais donc continuer à faire mon SEO tout seul :mrgreen:
 
Olivier Duffez (admin)
Membre du personnel
poupilou a dit:
J'ai essayé toutes ces solutions : ils m'indiquent tous 10 fois moins de backlinks que GWT, donc ils ne sont pas fiables du tout.
tu sembles supposer que les données de GWT sont la vérité absolue, ce qui est faux
non seulement il peut y avoir des backlinks nofollow (dont on se fiche la plupart du temps) mais il peut y avoir des backlinks qui désormais n'existent plus

que ces outils ne soient pas exhaustifs, ça semble malheureusement inévitable, vu le boulot que ça représente.
on te dit juste qu'il n'existe pas mieux pour l'analyse des BL des concurrents

au passage, le nombre de BL seul ne sert pas à grand chose. le nb de domaines faisant un BL est déjà une donnée + intéressante
 
WRInaute passionné
Donc pour faire relativement simple, si vous souhaitez que vos concurrents ne vous passent pas devant : il suffit de blacklister les adresses IP des crawlers de ces soft SEO afin qu'ils deviennent aveugles, ils vont comparer quoi après ça ?

Personnellement c'est ce que ja fais, et quand je compare les résultats avec mes concurrents, par exmple sur le site de opensiteexplorer.org je suis littéralement mort de rire ! Si mes concurrents utilisent les infos de ces softs là il ne sont pas près de me passer devant, c'est d'ailleurs ce qu'ils doivent faire puisqu'ils sont tous derrière moi :mrgreen: Règle n° 1 : ne jamais faire comme le troupeau, sinon on se fait tondre. C'est comme en bourse : on achète la rumeur et on vend la news, la plupart des newsbies font l'inverse et se font racler leur fric.

Pourquoi ne pas blacklister ces crawlers qui ne veulent qu'une chose : vous nuire en donnant des infos pertinentes à vos concurrents afin qu'ils essayent de pour vous passer devant, faudrait être suicidaire pour leur dire "venez crawler mon site gros vilain mêchant crawler SEO", qu'ils crèvent et qu'ils crawlent mon site manuellement, il ne fait que 250 000 pages :mrgreen:
 
WRInaute accro
" si vous souhaitez que vos concurrents ne vous passent pas devant : il suffit de blacklister les adresses IP des crawlers de ces soft SEO afin qu'ils deviennent aveugles, ils vont comparer quoi après ça ?"

En même temps, tes concurrents n'ont pas non plus accès à tes sublimissimes données GWT

Au bout d'un moment tu veux quoi ? Une armée de petits chinois qui surfe sur tous les sites du monde pour trouver tous les liens de tout le monde ? Bref tu es passé d'une question classique, à une complainte qui n'en finit pas parce que les réponses ne te conviennent pas.
 
Nouveau WRInaute
" si vous souhaitez que vos concurrents ne vous passent pas devant : il suffit de blacklister les adresses IP des crawlers de ces soft SEO afin qu'ils deviennent aveugles, ils vont comparer quoi après ça ?"

Si tu blacklist ces robots, ils seront simplement blacklister sur tes sites, et/ou ton reseau, mais cela n'empechera pas tes concurrents de voir les autres backlinks que tu as fait sur d'autres sites web où tu ne controle pas cette blackliste, donc c'est peine perdu ...
 
Olivier Duffez (admin)
Membre du personnel
en effet, bannir ces outils sur ton site n'empêche pas ces outils de lister tes backlinks externes...
 
WRInaute passionné
Bannir de mes sites les crawlers des soft SEO les rend aveugle car ils n'auront aucune donnée interne sur mes sites, ils auront uniquement le nombre de backlink externe.... et le nombre de BL externe qu'ils obtiendront sera là encore très faussé car j'ai un site en anglais + espagnol + allemand + chinois + français + divers autres domaines avec liens croisés entre tous mes sites : 250 000 pages par sites x 4 sites = +/- 1 000 000 BL croisés entre mes différents sites et toute cette masse de BL n'apparaitra pas dans leur BDD puisqu'ils sont "persona non grata" sur tous mes sites :mrgreen:

On met en BDD une liste de crawlers (amis) qui sont autorisés à parcourir votre site autant qu'il le souhaite, pour chaque utilisateur qui atteint une limite de nombre de page consulté on le redirige vers une page spéciale ou on lui demande de confirmer qu'il est bien un humain par un petit test (mathématique, logique, etc...), s'il répond juste il peut continuer à surfer sur le site (on met son adresse IP dans une table "adresse_ip_verifie" afin de le laisser surfer sur le site comme il le souhaite), s'il répond faux, c'est soit un débile ou un crawler qui n'à rien à faire sur mon site, je le blackliste et le dégage du site, ça libère un peu de bande passante pour les non parasites.
 
WRInaute accro
Moi je les bloques aussi simplement car ça me bouffe de la bande passante pour rien. Si j'ai envie de me mettre sur le dos d'un "concurrent", j'ai pas besoin de la liste de ses backlinks pour lui faire la chasse, c'est même contreproductif dans la mesure ou ça m'enferme dans une stratégie qui n'est pas la mienne.

Bref les blacklister, oui c'est pas con pour ce que cela donne, mais dire que c'est le fin du fin pour se protéger surement pas.
 
WRInaute passionné
zeb a dit:
Bref les blacklister, oui c'est pas con pour ce que cela donne, mais dire que c'est le fin du fin pour se protéger surement pas.
Ca a au moins le mérite de foutre le souc, de fausser les données des soft SEO, de compliquer la tache d'analyse de ces soft et d'induire en erreur les futurs actions de tes concurrents. Ce n'est pas l'arme absolu mais ça fait devrait faire partie de ton arsenal :D

En gros c'est un peu comme si tu disais à un voleur : vient visiter mon appartement repérer les lieux comme ça tu pourras mieux me voler !
 
WRInaute accro
poupilou a dit:
Ca a au moins le mérite de foutre le souc,
Mouais ... oui et non pour les raisons évoquées ci dessus entre autre mais aussi car on est quantité négligeable a avoir ce genre de comportement car la parade proxy sortirait immédiatement et là ce serait plus hard pour les bloquer.
Pero je bloque tout ce qui engendre un trafic important et qui n'est pas "moteur". Bref je détecte ce genre de soft dès qu'il passe le cap des disons 200 / 500 pages visités dans la journée. Mais le jour ou il y en a un qui décide de s'accrocher ça deviens plus pénible a suivre (j'ai déjà eu le cas).

Ce qui m'amuse le plus avec cette histoire c'est la bande passante qui est consommée (qui se retraduit directement en un coût "carbone") pour des trucs pas utilisés a 80% au moins. C'est un peut comme GG ou Bing qui s'obstinent a crawler comme des malades des pages profondes qui bougeront jamais et qui seront de toute façon pinguées si elles sont mis a jour ...

Quand je voie le trafic que ça engendre sur certains de mes sites ça me dépasse qu'on en soit là. Ca me fait penser au mec qui proposait un outils de Crawl pour faire un sitemap. Plus bourrin tu meurs.
 
WRInaute passionné
Un fichier robots.txt suffit. Jusqu'a présent, je n'ai pas d'outils SEO qui sont passé outre.

j'ai cela sur le serveur de gestion, a côté de moi, avec un BEEP a chaque entrée de gestion. Il n'y a que les chinois et les russes que je dois bloquer manuellement. Une serie de BEEP a répétition, et je bloque la plage d'adresse "non respectueuse"...
 
WRInaute passionné
En quoi ça fout le souc ?

Tu ne bloques pas le fait que les softs puissent voir tes BL externes... Parce que tu aies une version anglaise, allemande, espagnole ou mongolienne c'est pas ça qui fait ton ref !
 
WRInaute passionné
patapon87 a dit:
Tu ne bloques pas le fait que les softs puissent voir tes BL externes
Merci de lire tous les posts :D
poupilou a dit:
Bannir de mes sites les crawlers des soft SEO les rend aveugle car ils n'auront aucune donnée interne sur mes sites, ils auront uniquement le nombre de backlink externe....
Donc oui les softs SEO trouveront les BL externes des sites qui ne les blacklistent pas :D parce ce que j'ai dit aussi plus haut :
poupilou a dit:
j'ai un site en anglais + espagnol + allemand + chinois + français + divers autres domaines avec liens croisés entre tous mes sites : 250 000 pages par sites x 4 sites = +/- 1 000 000 BL croisés entre mes différents sites et toute cette masse de BL n'apparaitra pas dans leur BDD puisqu'ils sont "persona non grata" sur tous mes sites

zeb a dit:
car on est quantité négligeable a avoir ce genre de comportement
C'est justement ce que je disais plus haut : ne jamais être dans le troupeau :D Si les softs SEO ne passent pas sur ton site, ni sur le mien, certe c'est marginal, mais c'est tout bénéf pour nous parce que les utilisateurs se fieront aveuglement aux données de ces softs, mais comme elles sont erronées pour nos sites, il y a de fortes probabilités que les actions futures qui seront prises par nos concurrents soient fausses aussi :wink:
 
Olivier Duffez (admin)
Membre du personnel
les données ne sont pas erronées quand on cherche les BL des sites qui bloquent ces outils, elles sont erronées pour les sites qui reçoivent des liens depuis les sites qui bloquent ces outils

bon... j'abandonne.
 
WRInaute passionné
WebRankInfo a dit:
bon... j'abandonne.
Déjà :eek: on en était juste à l'échauffement :mrgreen:

J'ai un serveur dédié qui héberge tous mes sites. Je blackliste tous les crawlers SEO de mon serveur dédié, ces outils n'ont donc pas la possibilité de crawler mes sites, donc de trouver les éventuels BL que je ferais entre mes différents sites.

Mon site1 fait des liens vers mon site2, ainsi que vers mon site3, ainsi que vers mon site4 et ainsi que vers mon site5... et réciproquement.

Chaque site a +/- 250 000 pages.

Mon site1 reçoit donc 1 000 000 BL externe venant de mon réseau, idem pour les autres sites. Tout le monde suit là :D

Lorsque les outils SEO souhaiteront collecter le nombre de BL pour chacun de mes sites ils auront inévitablement une erreur de 1 000 000 des BL externe (en moins) pour chacun de mes sites puisqu'ils ne peuvent pas crawler mes sites.

Ils ne connaitront pas non plus les mots clés de ces liens, ni leurs ancres.

Ouf, je vais me coucher :mrgreen:
 
S
StefouFR
Guest
De toute façon si tu fais juste de la triangulation, chose que Google détecte et deteste, tu n'irais pas bien loin.

La bonne chose c'est que tu n'inquiéteras personne donc aucune crainte que tes "concurrents" aient besoin de connaitre tes secrets et tes BLs.
 
WRInaute accro
Pas forcement si tu fait du BSeo ... :wink:
Tu met un bon vieux réseau P0rn sur le serveur et tu fais du mauvais voisinage pour la concurence discrètement :D (j'plaisante) Tu les vois chercher les BL planqués vers leur site "à la main". :lol:
 
WRInaute accro
WebRankInfo a dit:
tu sembles supposer que les données de GWT sont la vérité absolue, ce qui est faux
oui, mais comme ce qui nous intéresse est le nombre de bl pris en compte par gg et pas vraiment le nombre de bl total
 
Olivier Duffez (admin)
Membre du personnel
Leonick a dit:
oui, mais comme ce qui nous intéresse est le nombre de bl pris en compte par gg et pas vraiment le nombre de bl total
ça, je ne vois pas comment on pourrait le savoir, à moins d'être chez Google et encore
 
WRInaute passionné
StefouFR a dit:
La bonne chose c'est que tu n'inquiéteras personne donc aucune crainte que tes "concurrents" aient besoin de connaitre tes secrets et tes BLs.
Ben depuis 10 ans je suis devant tous mes concurrents et mes sites sont plutôt très bien référencés sur pas mal de requêtes, comme quoi GG ne doit pas détester tant que cela cette méthode de triangulation :D
 
WRInaute passionné
poupilou a dit:
Ben depuis 10 ans je suis devant tous mes concurrents et mes sites sont plutôt très bien référencés sur pas mal de requêtes
En fait (secret) j'ai réussi à super bien me positionner sur la requête "kangourou volant" alors tu penses bien que j'ai une super légitimité quand je parle.

WebRankInfo a dit:
bon... j'abandonne.
J'avais dit que je le faisais page 1 mais j'ai pas réussi :mrgreen:
 
Olivier Duffez (admin)
Membre du personnel
Leonick a dit:
WebRankInfo a dit:
Leonick a dit:
oui, mais comme ce qui nous intéresse est le nombre de bl pris en compte par gg et pas vraiment le nombre de bl total
ça, je ne vois pas comment on pourrait le savoir, à moins d'être chez Google et encore
avec les liens affichés dans GWT, non ?
bah non justement, Google liste des liens qu'il ignore, par exemple les nofollow
 
WRInaute accro
est-ce vraiment sur qu'il les ignore ?
en fait, un bl, au niveau des moteurs, a 2 conséquences théoriques : engager la "réputation" du site d'origine et en donner un peu à celui cible.
la réputation du site de départ se fait de 2 façons différentes : gg lui affecte un certain poids pour l'ancre utilisée, perturbant ainsi une éventuelle hyper thématisation du site. Donc ceux qui font des bl vers des sites hors thématique se retrouvent avec une pertinence moindre et même, si la thématique n'est pas trop concurrentielle, arrivent à se positionner sur les mots clés du site cible (j'avais remarqué ça il y a 2-3 ans, quand je faisais du fort linkage entre mes différents sites sur des thématiques éloignées).
Mais la 2° conséquence pour gg, c'est que si le site cible est considéré comme de mauvaise qualité, cela se transformera en perte de qualité pour le site source.
Pour éviter ces conséquences, gg avait inventé le nofollow. sauf que, ça a été utilisé pour faire du pr sculpting. gg a donc dit qu'il faisait comme si le pr était affecté aux bl nofollow et donc était perdu pour les autres bl.
Mais si, en fait, il en tenait quand même compte ? et qu'il évitait "juste" de pénaliser le site source selon la 2° conséquence ? en ne communicant pas là dessus, il évite ainsi une suppression massive de ces liens par des webmasters trop orientés seo !
 
WRInaute passionné
Leonick a dit:
Mais si, en fait, il en tenait quand même compte ?
Ma supposition : je pense que google s'en sert pour voir si le profil de links est dans une répartition normale pour repérer ceux qui ont tendance à faire de la sur-optimisation et qu'il accorde un peu de poids pour de très faibles domaines bien sélectionnés (wikipedia par exemple).

En gros le com en no follow sur un wordpress il est enregistré pour les stats du profile mais il n'apporte rien en SEO, même pas pour la thématique.
 
Olivier Duffez (admin)
Membre du personnel
Leonick a dit:
est-ce vraiment sur qu'il les ignore ?
(...)
Mais si, en fait, il en tenait quand même compte ?
avec des "si" on peut tout envisager ;-)
moi mes tests me montrent qu'il n'en tient pas, mais si vous avez d'autres résultats je suis preneur de vos conclusions
 
WRInaute accro
en fait, c'est loin d'être évident de voir si un nofollow pouvait être pris en compte, car pour qu'il puisse "envoyer" un signal positif à gg, il faudrait, par exemple, que le taux de nofollow entrants corresponde peu ou prou au pourcentage de nofollow dans une thématique donnée (si un grand nombre de sites). Et donc 1 ou 20 nofollow seuls n'auraient aucun poids, par contre, associés à 80 dofollow, là ils pourraient avoir du poids.
dans tes tests, as-tu regardé si un fort pourcentage de nofollow en bl sortant pouvait être préjudiciable au site ?
 
WRInaute passionné
Leonick a dit:
dans tes tests, as-tu regardé si un fort pourcentage de nofollow en bl sortant pouvait être préjudiciable au site ?
Perso j'aurais tendance à penser qu'un 95% dofollow est plus préjudiciable (sur un site récent)
 
Nouveau WRInaute
Bonjour à tous,

étant débutant, je lie avec attention vos posts

je me posais une question

je m'occupe d'un petit site perso en développement
moins de 300 backlinks

à ce niveau, n'est il pas préférable d'aller chercher soit meme sur google tous les sites qui pointe vers notre site?

et si j'ai bien suivi vos posts, classer tout ca par nom de domaine, et ca fait une bonne base de départ pour l'analyse?

qu'en pensez vous?

merci pour votre aide

cdlt,

Z.
 
WRInaute discret
UsagiYojimbo a dit:
OpenSiteExplorer, aHrefs, MajesticSEO sont les principaux sites que j'utilise pour faire cela, hors GWT.
Désolé de revenir au sujet initial :D
Majestic SEO me raconte n'importe quoi au sujet des baclinks lost : les 2 tests que j'ai fait (signalés en lost) : les liens étaient bien présents.
Backlinswacth est lent mais exaustif
je vais continuer à explorer aHrefs qui m'a l'air pas mal
OpensiteExplorer : 10 résultats ne permettent pas de se faire une bonne idée de ce que sait faire seomoz (payant)
 
Nouveau WRInaute
Google indexe mes pages depuis maintenant 3 mois, et je dois dire que j'en suis très content!
je sais pas comment ça s'est effectué puisque j'ai rien demandé à google :lol:
 
Discussions similaires
Haut