Réseau de sites, quelle limite?

WRInaute discret
Bonjour,

On parle souvent de pénalisation voir de blacklistage en cas de liaisons trop fortes dans un réseau de site. Mais quelle est la limite? Tout le monde lie ses sites les uns aux autres, alors à partir de quand Google considère que c'est abusif? Avez vous des expériences, des retours?
 
WRInaute passionné
Ephemere a dit:
Moi non plus et je n'y crois pas vraiment à cette théorie...

Tu devrais :)

Le fait d'avoir un réseau de sites tous liés entre eux n'est pas pénalisant, mais plutot inutil car ces liens ont moins d'impacts que des liens "naturels".
 
WRInaute discret
En effet je pense que les réseaux de sites peuvent être blacklisté

edit zecat : liste d'url modérée ...

Je donne pas chèr de leur vie :D
De la en savoir la limite :/
 
WRInaute occasionnel
baronz, les exemples que tu cites ne devraient pas durer longtemps, effectivement. Ce n'est pas le fait de la base sql commune qui va le planter, mais la similitude des sites Je voulais faire la meme chose en utilsant une tripotée de .be et j'ai installé quelques annuaires en test en changeant les metas et le template, mais les titres de categories sont identiques et je ne suis pas persuadé du résultat et j'hésite à continuer.
 
WRInaute discret
alfred99, là on est plus sur un problème de double content. Alors en plus, si les sites sont très liés, effectivement.

Mais je me pose la question surtout pour un de mes sites qui est blacklisté depuis 3 semaines. C'est celui de mon profil. Je ne vois vraiment aucune entorse aux "bonnes règles" qu'édicte Google, pas de cloacking, pas de pages sat, et pas trop de répétitions. D'autant plus que je bosse de manière similaire sur trois autres sites et pas de problème. Alors j'ai pensé à un problème de structure de liens. En effet, les 3 autres sites similaires dont je parle (pas du tout le même contenu, c'est de l'immobilier) ont chacun la même structure de liens (liens avec mes autres sites, mêmes annuaires etc). Et mon nouveau site blacklisté commençait tranquillement a avoir les mêmes liens. Problème? Pourtant, les autres ne sont pas déclassés.
 
WRInaute discret
Que ce soit valable, je n'en doute pas. Et contrairement à ce que tu dis, les exemples donnés ci-dessus sont exclusivement pour le PR et non pas pour les internautes (les liens en pattes de mouches...)
Mais j'ai déjà vu des témoignages de réseaux de sites trop liés pénalisisés. Comme toujours en référencement, la question est de trouver la bonne mesure.
 
Nouveau WRInaute
je vois mal comment google pourrait faire la part des choses si on prend le soin de ne pas faire un réseau de liens fermé mais d'intégrer des liens externes pour "noyer le poisson".
 
WRInaute discret
Oui, je pense que c'est une partie de la réponse. Mixer les liens du réseau avec de vrais liens externes. Il y a aussi les liens venant du même serveur ou de la même classe d'IP je suppose.

Mais Google peut également repérer une optimisation trop forte des liens dans un réseau de sites. Exemple : sur un site, dès que le mot "immobilier" apparait dans le texte, je fais pointer vers un autre site de cette thématique. Très simple à faire en PHP, par exemple avec une petite expression régulière. Ce genre de chose très efficace en général, est à mon avis pénalisante si utilisée de manière excessive sur un réseau de sites.
 
WRInaute occasionnel
Personnellement,

Je me suis inscrit également à ce type de "ferme de liens" par le passé. J'en ai subi les conséquences et j'ai récupéré mon ancien classement après quelques mois seulement.

A vous de choisir ...
 
WRInaute occasionnel
Pour moi, cela revient plus ou moins à la même chose. Des sites font des liens entre eux et augmentent parfois artificiellement leur pr ou leur classement dans google.

Conséquences --> traffic quasi nul via google et ensuite remontée lente sur tous mes mots clés.
 
WRInaute discret
cyberghostjp a dit:
Pour moi, cela revient plus ou moins à la même chose. Des sites font des liens entre eux et augmentent parfois artificiellement leur pr ou leur classement dans google.
Pas tout à fait d'accord. Dans le cas d'un réseau de sites, on a des sites avec un vrai contenu, et 10 ou 20 liens en bas de page par exemple (ou des liens dans le texte). Une Farm link, il n'y a que des liens, et plutot quelques centaines par page. La différence est tout de même énorme et Google sait la faire.
 
Discussions similaires
Haut