Backlink réciproque sur 2 sites

WRInaute discret
Bonjour,

J'ai lu ce forum (https://www.webrankinfo.com/forum/t/quel-texte-dancrage.199860/) et j'aimerais vous poser une question similaire :

Il y a quelques années, sur 2 sites (a.fr et b.fr) j'ai mis deux backlinks réciproques avec des ancres sur-optimisés. Et plus tard il y a eu un doute comme quoi je descendais sur Google. Puis ensuite je décide de faire retirer le lien de a.fr vers b.fr, mais b.fr fait toujours un lien vers a.fr, j'aimerais bien savoir s'il faudrait l'enlever aussi ? Car peut-être que Google s'en rappel qu'ils se sont fait des backlinks en même temps, du coup en retirant les deux sa casserait peut-être le lien entre les deux.

Est-ce qu'il est possible que ce filtre existe chez Google ?


Cordialement
 
Olivier Duffez (admin)
Membre du personnel
je ne crois pas à l'idée que l'algo de Google pourrait être bâti sur des aspects psychologiques (on le lit parfois par exemple sur les désaveux). Bref, si le lien n'est plus là, Google ne va pas faire comme s'il était encore là.

je décide de faire retirer le lien de a.fr vers b.fr,
et ça a eu quoi comme effet ? as-tu mesuré l'impact ? si oui comment ?
 
WRInaute discret
Imaginons que Google a une très grande base de données (dans le genre tables SQL) et sur chaque ligne il y a un nom de domaine (root). Il y a genre 100 milliards de domaines.
Et pour chaque domaine il y a des centaines de colonnes dans ce genre-là :
  1. id : 1 à 100 milliards
  2. domaine: a.fr
  3. ...
  4. pagerank : 7
  5. note: 70/100
  6. spam: yes
  7. LeFaireBaisserSurGoogleSearch: yes
  8. JSONDesBacklinksByGoogleBot: ["b.fr", "c.fr"....]
  9. ... et des centaines d'autres colonnes pour chaque domaine !

Et dans une autre ligne il y a:
  1. id : 950654235487
  2. domaine: b.fr
  3. ...
  4. pagerank : 3
  5. note: 30/100
  6. spam: no
  7. LeFaireBaisserSurGoogleSearch: yes
  8. JSONDesBacklinksByGoogleBot: ["a.fr", "d.fr"...]

Et ensuite dés que le robot GoogleBot passe sur notre site (ou sur chaque site) il y a la récupération en temps réelle de la ligne et il examine des liens comme:
  • Il vérifie si la colonne "spam" est true ou false
  • Il vérifie tout et il met à jour les colonnes
  • Il vérifie si domaine a.fr a des backlinks JSONDesBacklinksByGoogleBot: ["b.fr", "c.fr"....] et il vérifie des trucs sur b.fr et c.fr (un par un) et il fait des comparaisons et ensuite il met à jour les statuts comme il veut comme spam:no ou spam:yes ou même LeFaireBaisserSurGoogleSearch:yes ou LeFaireBaisserSurGoogleSearch: no et dès que le statut change le webmaster il le remarque au bout de 2 semaines ou 1 mois ou même 3 mois qu'il a changé de position sur Google. En réalité leur vieux Google Penguin ou Google Panda ça n'existe même pas, c'est juste des noms de filtre.
Le but pour chaque webmaster c'est d'être clean partout en SEO et d'avoir un spam:no et un LeFaireBaisserSurGoogleSearch:no ainsi que d'autres, et ensuite c'est bon le site il finit toujours par arriver en première page sur Google si on est clean partout ou presque

Il y a peut être également des autres filtres et des colonnes qu'on ne connait pas comme par exemple:
  • NombreVisiteurQuotidienMoyenParJour: 10 000
  • LeFaireBaisserSurGoogleAleatoirementPourNePasQuilDepasseLes10000parJour: Yes (et du coup un autre site se met en place (ce qui fait que l'ont voit l'effet yoyo sur Google plusieurs fois par jour)

Est-ce qu'il est possible que Google s'amuse à faire tout ça et même à jouer psychologiquement de façon discret ?

Je ne suis pas paranoïaque, j'essaye juste d'être au plus rationnel possible o_O
 
Discussions similaires
Haut