explications de Matt Cuts (Google) sur le sandbox (suite)

WRInaute occasionnel
Et si Google commence à communiquer sur ce point, alors c'est qu'il n'est pas vital pour préserver l'opacité de leur algorithme.

Fred
 
WRInaute impliqué
oui, mais generalement quand le patron prend la peine d'intervenir c'est qu'il y a une raison et je n'en vois qu'une
à mon avis cette course aux BL doit les gaver quelque part, non pas parce que çà gene les algos mais plutot le fait que trop de sites soient beaucoup trop liés entre eux, ce qui captive les internautes qui vont de liens en liens

et pendant de temps là, les gens n'utilisent pas le moteur, ne reviennent pas dessus et donc ne cliquent pas sur les adwords ....
ils doivent avoir en horreur les listes à rallonge de liens partenaires

t'es démasqué Matt :lol:
 
WRInaute impliqué
@turulillo : Apparemment tu n'as pas digéré le coup de DMOZ ... Peu importe je ne répondrais pas à tes attaques personnelles, mais pour le reste tant pis si tu ne veux pas croire même aux annonces d'ingénieurs de Google. Et pour le cloaking tant pis je balance :

[Edité par moi même : Maintenant qu'il a eu la technique et qu'il est content inutile qu'elle se répande]

C'est incroyable de devoir balancer des techniques pareilles pour se rendre crédible auprès d'une poignée de personnes qui ne croient que ce qu'elles voient. D'ailleurs la différence entre moi et ces personnes, c'est que ces personnes attendent que les techniques leurs soient servies sur un plateau et qu'elles fonctionnent, alors que moi je les cherche moi même. Bref j'éspère que la technique sera éditée avant que tu ne la vois et que tes concurrents te piquront quelques places avec.

Oxud a dit:
Rituel > tu as réussi à placer des nouveaux sites en première page de google en moins de trois mois sur des keywords commerciaux ? (au moins 800.000 pages dans google).

Tu es le premier webmaster que je connaisse qui a réussi depuis septembre 2004 en France et dans le monde...

Au bout d'1 semaine de mis en ligne j'étais 1 er sur "livraison" : 12 300 000 résultats. Et au bout de quelques semaines dans les 30 ème pour "livraison fleurs", puis en 3 mois environ j'oscillais entre la première et la deuxième page. Aujourd'hui je suis 4 ème sur la requête et j'ai pas fini d'optimiser mes Bls.
 
WRInaute impliqué
rituel a dit:
la différence entre moi et ces personnes, c'est que ces personnes attendent que les techniques leurs soient servies sur un plateau et qu'elles fonctionnent, alors que moi je les cherche moi même.
En même temps, si tu arretais de dire des trucs de ce style, on te prendrait peut être plus au serieux... Il faut redescendre sur Terre! Tu n'as pas inventé la théorie de la sandbox, et ta technique de cloacking est des plus basiques! Tu as l'impression d'utiliser des fonctions avancées de javascript la dedans?
 
WRInaute impliqué
Je vous recommande la lecture de cette article : http://aixtal.blogspot.com/2005/03/web- ... s-que.html

Le lien avec la Sand Box ? peut-être que Google recense les nouveaux sites, mais ne les indexent pas tout de suite pour une raison purement technologique et de coût ...

La théorie "sandbox" confortée par Google lui même (voir interview) serait juste une parade pour cacher les difficultés que rencontrerait Google pour gérer un index aussi important.

j'aime beaucoup l'idée des pages recensées qui ne veulent pas dire indexées... cela rejoint aussi une thèse qui circule depuis 2 3 mois sur les forums US d'un double index de Google, le réel et le "virtuel" composé des nouveaux sites qui nous apparaissent sandboxés, mais qui sont juste en attente d'être intégrés à l'index réel par manque de place... idée soutenue par le fait que l'effet "sandbox" semble de plus en plus long... donc que google a de + en + de soucis sur la gestion équilibrée de son index principal (problèmes techniques, de puissance de calcul CPU etc). Enfin, le calcul du page rank s'effectuant de moins en moins souvent, cela conforterait cette thèse... car ce calcul doit mobiliser une puissance CPU considérable...

bref l'idée même de la sand box permettrait de cacher des problèmes de croissance. Ne pas avouer cela, ce serait un aveu de faiblesse technique et technologique, sinon l'action perd 20 %... et ça je suis pas d'accord, je suis actionnaire Google !
 
WRInaute occasionnel
Y a quand même un truc qui me chiffonne dans l'autre théorie citée par Oxud c'est que le nombre de sites indexés dans l'index GG n'a pas augmenté subitement et massivement du jour au lendemain mais plutôt de façon régulière. Par contre les irrégularités constatés dans la mise à jour du PR qui selon cette théorie seraient la conséquence des difficultés techniques rencontrées, sont arrivées assez vite ce qui nous a fait dire avec étonnement: A plus PR 8O .
Je me trompe?
 
WRInaute impliqué
Google est passé en moins d'un an de 4 milliards à 8 milliards de pages pour ne pas se faire "doubler" par la concurrence :

http://www.zorgloob.com/2004/11/8-058-0 ... google.asp

L'évolution était régulière jusqu'au 2 dernières mises à jour... ce qui colle dans le temps avec début sand box aux usa sur (avant dernière mis à jour) et sand box en europe (dernière mise à jour).

Calculer les liens croisés ou non ( donc le PR) sur un double de page ne nécessite pas une puissance de calcul double mais bien plus exponentiel...

Pour le "retard" de calcul de PR, j'en suis persuadé, avant on avait un pr rafraichi tous les mois quand Google avait de 2 à 3 milliards de pages, maintenant tous les 3 mois (aucune certitude) avec 8 milliards de pages.

Pour la sand box, c'est plus discutable... mais ca colle chronologiquement...
 
WRInaute occasionnel
Pourtant tu as recommandé un article plus haut qui dit que GG aurait gonflé artificiellement son index et qu'il utiliserait un index plus petit. Le calcul du PR serait effectué sur l'index gonflé?
 
WRInaute occasionnel
La gonflette de l'index de Google dure depuis un bon moment... Effectuer le calcul sur l'index gonflé n'a aucun intérêt car ils ne connaissent pas les liens issus des pages de ce pseudo index gonflé.

Mais bon s'ils ne sont pas passé de 4 à 8, alors ca peut être de 2 à 4, peu importe en fait, le problème d'echelle reste le même... Ce qu'il faut souligner, c'est que le temps de calcul du PR n'évolue très certainement pas de manière linéaire par rapport au nombre de pages à traiter dans l'index. En parallèle, les liens se multiplient (échanges destinés uniquement au référencement notamment), et rendent les calculs de plus en plus complexes.

Ils pourront toujours dire qu'ils ont des dizaines de milliers de serveurs, ils connaissent le problème et ses conséquences : à partir du moment ou l'algorithme est de complexité n^x, alors la croissance de l'index sera toujours délicate.

Fred
 
WRInaute passionné
Oxud a dit:
cela rejoint aussi une thèse qui circule depuis 2 3 mois sur les forums US d'un double index de Google, le réel et le "virtuel" composé des nouveaux sites qui nous apparaissent sandboxés, mais qui sont juste en attente d'être intégrés à l'index réel par manque de place... idée soutenue par le fait que l'effet "sandbox" semble de plus en plus long... donc que google a de + en + de soucis sur la gestion équilibrée de son index principal (problèmes techniques, de puissance de calcul CPU etc).

Si j'ai bien compris tu assimiles l'effet sandbox au faite que google n'arrive pas à indexer les url qu'il a enregistré. Si c'est bien ça que tu as voulu dire, la théorie est forcement fausse car pour avoir un nouveau site sandboxé, certes les pages ne sont pas dans le moteur, mais il les connais tout de meme (on peut le vérifier à l'aider de "site:url mot_cle" ou les pages ont titre et description)

Il est par contre possible qu'il n'arrive pas à les prendre en compte dans sa recherche, mais comme l'effet se fait (pour moi en tout cas) peu importe la requete (qu'il y ai bcp ou peu de résultats) mais sur certaines requetes j'apparait néanmoins, ce qui veut dir qu'il recherche dans les pages indexés de ce site tout de meme. Mais toujours avec un petit malus qd mm...
 
WRInaute passionné
La théorie de sandboxer les nouveaux sites histoire qu’ils fassent leurs preuves me paraît la plus logique et juste (on avale mieux la pilule) reste à savoir la durée, mais pourquoi Google se tait à ce sujet ! Ça je ne comprend pas !
 
Nouveau WRInaute
Entièrement d'accord avec toi David. Pour ma part sur des mots concurrentiels voilà environ 8 mois que ça dure. Pour d'autres mots clés un jour par hazard on sort.
 
WRInaute passionné
pruvvinc a dit:
Entièrement d'accord avec toi David. Pour ma part sur des mots concurrentiels voilà environ 8 mois que ça dure. Pour d'autres mots clés un jour par hazard on sort.
Effectivement le système sandbox est basé sur les mots clés concurrentiels (qui a dit marketing Adword ?), pour mon cas ils en ont bannie quatre (les plus porteur ! Logique tu me diras :lol:) Et ça va faire exactement huit moi aussi... C'est long quand même ! Mais bon on fait contre mauvaise fortune de bon partenariat qui eux sont bien placés et non pas eu ou ne sont plus dans les affres de la sandbox ;-)
 
Nouveau WRInaute
Le plus original dans tout ça est lorsqu'il y a une faute de frappe dans le mot clé ou l'expression l'effet sandbox disparaît, ptit exemple sur la requete "conseil de rédaction d'une lettre de motivation" sandbox à cause
du terme concurrentiel "lettre de motivation" et pour la requete
"conseil de rédaction d'une letrre de motivation" tout va bien.

Enfin patiente est de mise mais il est difficile de faire du bon boulot dans le flou.
 
Discussions similaires
Haut