Effet "Sandbox élargi"

Nouveau WRInaute
Bonjour,

Je voulais proposé un élargissement de l'effet, non démontré à ce jour, du SandBox.

J'ai subi depuis un an environ des chutes brutales et temporaires de trafic en provenance de GG sur certains des sites de mes clients.

Ces chutes ont été subies par un certain nombre de membres de ce forum et demeurent souvent inexpliquées (fin aout ou 3ème semaine de décembre 2004).

Après 3 semaines à 1 mois, les sites en questions peuvent retrouver leurs positionnement initial.

Une des explications que je propose est que Google applique un effet Sandbox aux sites qui perdraient/ne gagneraient pas assez de BackLinks sur un intervalle donné.

En effet, GG se veut un moteur de recherche de sites de qualité. Si un site est de qualité, il est, dans la théorie, appelé à recevoir un nombre croissant de liens référents.

Si cette croissance du nombre de liens référents ralentit, ceci traduirait une baisse de l'intérêt du site (ou une baisse de l'intérêt du webmaster pour son propre site, celui-ci ne faisant plus de travail de linking). Le site subit alors l'effet SandBox que je qualifierai d'élargi.

Après quelques semaines, GG constaterait, ou non, une reprise de la croissance des backlinks et sortirait alors le site des "sables mouvants" dans lesquels il avait été embourbé.

Qu'en pensez vous ?

Stéphane Lévy
Labelium.com
 
WRInaute impliqué
Pas impossible, mais je crois plutôt à l'application du pr réel, vraiment calculé, plutôt qu'estimé.

Le pr serait estimé à la louche, et calculé réellement tous les x mois, car cela doit manger beaucoup d'argent et de disponibilité Cpu. On dit sur ce forum souvent 'y a plus pr", moi je pense que si, mais que depuis l'intro en Bourse, il faut être rationnel, faire des économies d'échelle, donc un pr réel calculé tous les 3 4 mois ca coûte moins cher qu'un pr calculé tous les mois.
 
Olivier Duffez (admin)
Membre du personnel
pour ma part je pense plutôt que le PR est calculé + souvent qu'une fois par mois, mais qu'il n'est souvent mis à jour sur la toolbar.

pourquoi le classement des sites dans le répertoire Google (trié par PR) serait-il mis à jour aussi souvent ?
 
WRInaute impliqué
juparis a dit:
Google applique un effet Sandbox aux sites qui perdraient/ne gagneraient pas assez de BackLinks sur un intervalle donné.
Je n'ai pas l'impression que ce soit le cas. Certains sites dont je m'occupe n'ont pas changé de positionnement malgré le fait que très peu de nouveaux BL sont faits vers eux.
 
WRInaute accro
juparis a dit:
Une des explications que je propose est que Google applique un effet Sandbox aux sites qui perdraient/ne gagneraient pas assez de BackLinks sur un intervalle donné.
Interressante hypothèse ... je ne crois pas que cela soit le cas ... et ne pense pas que ce soit une bonne idée ...

Au fait c'est quoi un site de qualité ? un site qui reçois beaucoup de link régulièrement ? mais les sites de spammeurs en reçoivent énormément, tous les jours (regardes sur les guestbook) ... d'ailleurs il ne faut pas se leurer l'essentiel des BL sont fait par le webmaster du site ... :wink:

peu de nouveaux BL ? j'aurais même tendance à dire, que ce pourrait être un moyen de détecter les sites qui ne spamme pas ... :lol:
 
WRInaute impliqué
juparis a dit:
Bonjour,

En effet, GG se veut un moteur de recherche de sites de qualité.

Salut,

Personnellement, je ne suis pas d'accord. Il y a de tres nombreux qui ne sont pas de qualité et qui sont souvent mis dans les premieres position. Google reference tout ce qui lui tombe sous la main.

On peut trouver des sites de 1999 non actualisés, sans contenu, des sites persos qui parlent du poisson rouge du voisin, des sites affreux, j'ai meme trouvé recemment des URLs sur une recherche google et dont ca dirigé vers des erreurs 404. Et le pire c'est que ce genre de site arrive bien souvent en premiere page de recherche.

juparis a dit:
Si un site est de qualité, il est, dans la théorie, appelé à recevoir un nombre croissant de liens référents.
En théorie peut-etre mais en réalité je ne suis pas sur. Pour gagner des liens entrants faudrait deja etre en premiere page de google et etre vu. Ainsi, visité par des webmasters ces derniers pourraient faire des liens. Tout le monde ne prend pas la peine de faire des liens. Mais si l'on n'a pas de BL comment etre en premiere page?
C'est un peu l'histoire du qui est arrivé en 1er: La poule ou l'oeuf?


juparis a dit:
Si cette croissance du nombre de liens référents ralentit, ceci traduirait une baisse de l'intérêt du site (ou une baisse de l'intérêt du webmaster pour son propre site, celui-ci ne faisant plus de travail de linking). Le site subit alors l'effet SandBox que je qualifierai d'élargi.
Il arrive forcement un moment ou le travail du webmaster ralenti. Au debut on fait beaucoup de liens et ensuite on en fait quand on trouve un site + ou - dans le meme theme. Une fois qu'ils sont tous + ou - faits, le travail n'est plus a faire. LE webmaster ne perd pas d'interet pour son site mais peut-etre travaille-t-il sur autre chose. Le contenu?

Je pense egalement que les BL sont importants mais qu'il n'y a pas que ca. Le contenu, un graphisme propre et simple pour que les visiteurs voient rapidement ce qu'ils ont besoin.

Pas evident tout ceci. :wink:
Enfin, ceci est mon opinion actuellement mais si quelqu'un a un autre point de vu, c ést tres bon d'en discuter :D

A+

Jensaisrien
 
Nouveau WRInaute
jensaisrien a dit:
Personnellement, je ne suis pas d'accord. Il y a de tres nombreux qui ne sont pas de qualité et qui sont souvent mis dans les premieres position. Google reference tout ce qui lui tombe sous la main.

Salut à tous,

Je suis assez surpris que Cendrillon et toi mettiez en doute la recherche de la qualité de Google (en parallèle à la quantité, il est vrai).

Dans le monde des moteurs, les services fournis sont gratuits, il n'ya donc pas de différenciation par le prix. Comment expliquer alors la place de leader de GG, loin devant d'autres sites ayant utilisé à foison des budgets publicitaires substantiels (Lyc-s, M-n, ....), si ce n'est par la qualité de son interface (légère et allant à l'essentiel) et la qualité de ses résultats (rapidité et exhaustivité).

Il reste bien sûr des résultats "aléatoires"/ "sales", mais combien de résultats non pertinents pour 100 recherches effectuées.

Essayons ce test des 100 premiers mots-clefs les plus fréquents dans les 5 leaders de la recherche et analysons pour chacun la pertinence des résultats...

Stéphane
 
WRInaute accro
Bonjour juparis,

juparis a dit:
Je suis assez surpris que Cendrillon et toi mettiez en doute la recherche de la qualité de Google (en parallèle à la quantité, il est vrai).
relis bien mon post, je ne remet pas en cause la recherche de qualité de Google ... je remets en cause : "site de qualité = site dont le nombre de BL évolue en permanence" ...
beaucoup de sites "de qualité" n'ont pas vocation à être linkés naturellement (les sites commerciaux par exemple), cela ne veux pas dire qu'ils ne sont pas "de qualité" ... de même que beaucoup de site sans contenu réel recoivent des dizaine de nouveaux BL chaque jour, parce que leurs webmaster passent leurs temps à spammer tout ce qui bougent sur le net (guestbook, blog, forum, et autres) ... :wink:
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut