explications de Matt Cuts (Google) sur le sandbox (suite)

Discussion dans 'Référencement Google' créé par crindor, 8 Mars 2005.

  1. crindor
    crindor WRInaute impliqué
    Inscrit:
    22 Novembre 2002
    Messages:
    875
    J'aime reçus:
    0
  2. iconso
    iconso WRInaute occasionnel
    Inscrit:
    8 Avril 2003
    Messages:
    355
    J'aime reçus:
    0
    Et si Google commence à communiquer sur ce point, alors c'est qu'il n'est pas vital pour préserver l'opacité de leur algorithme.

    Fred
     
  3. crindor
    crindor WRInaute impliqué
    Inscrit:
    22 Novembre 2002
    Messages:
    875
    J'aime reçus:
    0
    oui, mais generalement quand le patron prend la peine d'intervenir c'est qu'il y a une raison et je n'en vois qu'une
    à mon avis cette course aux BL doit les gaver quelque part, non pas parce que çà gene les algos mais plutot le fait que trop de sites soient beaucoup trop liés entre eux, ce qui captive les internautes qui vont de liens en liens

    et pendant de temps là, les gens n'utilisent pas le moteur, ne reviennent pas dessus et donc ne cliquent pas sur les adwords ....
    ils doivent avoir en horreur les listes à rallonge de liens partenaires

    t'es démasqué Matt :lol:
     
  4. rituel
    rituel WRInaute impliqué
    Inscrit:
    15 Mars 2003
    Messages:
    897
    J'aime reçus:
    0
    @turulillo : Apparemment tu n'as pas digéré le coup de DMOZ ... Peu importe je ne répondrais pas à tes attaques personnelles, mais pour le reste tant pis si tu ne veux pas croire même aux annonces d'ingénieurs de Google. Et pour le cloaking tant pis je balance :

    [Edité par moi même : Maintenant qu'il a eu la technique et qu'il est content inutile qu'elle se répande]

    C'est incroyable de devoir balancer des techniques pareilles pour se rendre crédible auprès d'une poignée de personnes qui ne croient que ce qu'elles voient. D'ailleurs la différence entre moi et ces personnes, c'est que ces personnes attendent que les techniques leurs soient servies sur un plateau et qu'elles fonctionnent, alors que moi je les cherche moi même. Bref j'éspère que la technique sera éditée avant que tu ne la vois et que tes concurrents te piquront quelques places avec.

    Au bout d'1 semaine de mis en ligne j'étais 1 er sur "livraison" : 12 300 000 résultats. Et au bout de quelques semaines dans les 30 ème pour "livraison fleurs", puis en 3 mois environ j'oscillais entre la première et la deuxième page. Aujourd'hui je suis 4 ème sur la requête et j'ai pas fini d'optimiser mes Bls.
     
  5. vpx
    vpx WRInaute impliqué
    Inscrit:
    23 Mars 2004
    Messages:
    852
    J'aime reçus:
    0
    En même temps, si tu arretais de dire des trucs de ce style, on te prendrait peut être plus au serieux... Il faut redescendre sur Terre! Tu n'as pas inventé la théorie de la sandbox, et ta technique de cloacking est des plus basiques! Tu as l'impression d'utiliser des fonctions avancées de javascript la dedans?
     
  6. Oxud
    Oxud WRInaute impliqué
    Inscrit:
    13 Décembre 2004
    Messages:
    631
    J'aime reçus:
    0
    Ok merci de ces précisions Rituel
     
  7. Oxud
    Oxud WRInaute impliqué
    Inscrit:
    13 Décembre 2004
    Messages:
    631
    J'aime reçus:
    0
    Je vous recommande la lecture de cette article : http://aixtal.blogspot.com/2005/03/web- ... s-que.html

    Le lien avec la Sand Box ? peut-être que Google recense les nouveaux sites, mais ne les indexent pas tout de suite pour une raison purement technologique et de coût ...

    La théorie "sandbox" confortée par Google lui même (voir interview) serait juste une parade pour cacher les difficultés que rencontrerait Google pour gérer un index aussi important.

    j'aime beaucoup l'idée des pages recensées qui ne veulent pas dire indexées... cela rejoint aussi une thèse qui circule depuis 2 3 mois sur les forums US d'un double index de Google, le réel et le "virtuel" composé des nouveaux sites qui nous apparaissent sandboxés, mais qui sont juste en attente d'être intégrés à l'index réel par manque de place... idée soutenue par le fait que l'effet "sandbox" semble de plus en plus long... donc que google a de + en + de soucis sur la gestion équilibrée de son index principal (problèmes techniques, de puissance de calcul CPU etc). Enfin, le calcul du page rank s'effectuant de moins en moins souvent, cela conforterait cette thèse... car ce calcul doit mobiliser une puissance CPU considérable...

    bref l'idée même de la sand box permettrait de cacher des problèmes de croissance. Ne pas avouer cela, ce serait un aveu de faiblesse technique et technologique, sinon l'action perd 20 %... et ça je suis pas d'accord, je suis actionnaire Google !
     
  8. Cartapus
    Cartapus WRInaute occasionnel
    Inscrit:
    18 Juin 2004
    Messages:
    385
    J'aime reçus:
    0
    Y a quand même un truc qui me chiffonne dans l'autre théorie citée par Oxud c'est que le nombre de sites indexés dans l'index GG n'a pas augmenté subitement et massivement du jour au lendemain mais plutôt de façon régulière. Par contre les irrégularités constatés dans la mise à jour du PR qui selon cette théorie seraient la conséquence des difficultés techniques rencontrées, sont arrivées assez vite ce qui nous a fait dire avec étonnement: A plus PR 8O .
    Je me trompe?
     
  9. Oxud
    Oxud WRInaute impliqué
    Inscrit:
    13 Décembre 2004
    Messages:
    631
    J'aime reçus:
    0
    Google est passé en moins d'un an de 4 milliards à 8 milliards de pages pour ne pas se faire "doubler" par la concurrence :

    http://www.zorgloob.com/2004/11/8-058-0 ... google.asp

    L'évolution était régulière jusqu'au 2 dernières mises à jour... ce qui colle dans le temps avec début sand box aux usa sur (avant dernière mis à jour) et sand box en europe (dernière mise à jour).

    Calculer les liens croisés ou non ( donc le PR) sur un double de page ne nécessite pas une puissance de calcul double mais bien plus exponentiel...

    Pour le "retard" de calcul de PR, j'en suis persuadé, avant on avait un pr rafraichi tous les mois quand Google avait de 2 à 3 milliards de pages, maintenant tous les 3 mois (aucune certitude) avec 8 milliards de pages.

    Pour la sand box, c'est plus discutable... mais ca colle chronologiquement...
     
  10. Cartapus
    Cartapus WRInaute occasionnel
    Inscrit:
    18 Juin 2004
    Messages:
    385
    J'aime reçus:
    0
    Pourtant tu as recommandé un article plus haut qui dit que GG aurait gonflé artificiellement son index et qu'il utiliserait un index plus petit. Le calcul du PR serait effectué sur l'index gonflé?
     
  11. iconso
    iconso WRInaute occasionnel
    Inscrit:
    8 Avril 2003
    Messages:
    355
    J'aime reçus:
    0
    La gonflette de l'index de Google dure depuis un bon moment... Effectuer le calcul sur l'index gonflé n'a aucun intérêt car ils ne connaissent pas les liens issus des pages de ce pseudo index gonflé.

    Mais bon s'ils ne sont pas passé de 4 à 8, alors ca peut être de 2 à 4, peu importe en fait, le problème d'echelle reste le même... Ce qu'il faut souligner, c'est que le temps de calcul du PR n'évolue très certainement pas de manière linéaire par rapport au nombre de pages à traiter dans l'index. En parallèle, les liens se multiplient (échanges destinés uniquement au référencement notamment), et rendent les calculs de plus en plus complexes.

    Ils pourront toujours dire qu'ils ont des dizaines de milliers de serveurs, ils connaissent le problème et ses conséquences : à partir du moment ou l'algorithme est de complexité n^x, alors la croissance de l'index sera toujours délicate.

    Fred
     
  12. tonguide
    tonguide WRInaute passionné
    Inscrit:
    28 Novembre 2003
    Messages:
    1 158
    J'aime reçus:
    0
    Si j'ai bien compris tu assimiles l'effet sandbox au faite que google n'arrive pas à indexer les url qu'il a enregistré. Si c'est bien ça que tu as voulu dire, la théorie est forcement fausse car pour avoir un nouveau site sandboxé, certes les pages ne sont pas dans le moteur, mais il les connais tout de meme (on peut le vérifier à l'aider de "site:url mot_cle" ou les pages ont titre et description)

    Il est par contre possible qu'il n'arrive pas à les prendre en compte dans sa recherche, mais comme l'effet se fait (pour moi en tout cas) peu importe la requete (qu'il y ai bcp ou peu de résultats) mais sur certaines requetes j'apparait néanmoins, ce qui veut dir qu'il recherche dans les pages indexés de ce site tout de meme. Mais toujours avec un petit malus qd mm...
     
  13. david96
    david96 WRInaute passionné
    Inscrit:
    28 Août 2005
    Messages:
    1 204
    J'aime reçus:
    0
    La théorie de sandboxer les nouveaux sites histoire qu’ils fassent leurs preuves me paraît la plus logique et juste (on avale mieux la pilule) reste à savoir la durée, mais pourquoi Google se tait à ce sujet ! Ça je ne comprend pas !
     
  14. cvclick
    cvclick Nouveau WRInaute
    Inscrit:
    24 Mai 2005
    Messages:
    2
    J'aime reçus:
    0
    Entièrement d'accord avec toi David. Pour ma part sur des mots concurrentiels voilà environ 8 mois que ça dure. Pour d'autres mots clés un jour par hazard on sort.
     
  15. david96
    david96 WRInaute passionné
    Inscrit:
    28 Août 2005
    Messages:
    1 204
    J'aime reçus:
    0
    Effectivement le système sandbox est basé sur les mots clés concurrentiels (qui a dit marketing Adword ?), pour mon cas ils en ont bannie quatre (les plus porteur ! Logique tu me diras :lol:) Et ça va faire exactement huit moi aussi... C'est long quand même ! Mais bon on fait contre mauvaise fortune de bon partenariat qui eux sont bien placés et non pas eu ou ne sont plus dans les affres de la sandbox ;-)
     
  16. cvclick
    cvclick Nouveau WRInaute
    Inscrit:
    24 Mai 2005
    Messages:
    2
    J'aime reçus:
    0
    Le plus original dans tout ça est lorsqu'il y a une faute de frappe dans le mot clé ou l'expression l'effet sandbox disparaît, ptit exemple sur la requete "conseil de rédaction d'une lettre de motivation" sandbox à cause
    du terme concurrentiel "lettre de motivation" et pour la requete
    "conseil de rédaction d'une letrre de motivation" tout va bien.

    Enfin patiente est de mise mais il est difficile de faire du bon boulot dans le flou.
     
Chargement...
Similar Threads - explications Matt Cuts Forum Date
explications de Matt Cuts (Google) sur le sandbox Référencement Google 7 Mars 2005
Besoin d'explications référencement PlayStation 4 Problèmes de référencement spécifiques à vos sites 30 Juillet 2013
Perte de référencement, quelles explications ? Problèmes de référencement spécifiques à vos sites 26 Juin 2013
Comportement incompréhensible de Google, besoin d'explications Problèmes de référencement spécifiques à vos sites 25 Mars 2013
Explications bizarres d'un conseiller Adwords AdWords 20 Novembre 2012
Explications sur requêtes d'un site pour afficher une page web Développement d'un site Web ou d'une appli mobile 11 Septembre 2012
Compte pro Facebook : explications et différence avec un compte perso Facebook 23 Mai 2012
Explications flux xml, catalogue produit Zanox Monétisation d'un site web 23 Septembre 2011
Pourquoi google.fr dans les sites référents Google Analytics ? [explications] Google Analytics 11 Mai 2011
[PageRank] Explications Netlinking, backlinks, liens et redirections 11 Août 2010
Référencement naturel chez Bing : quelques explications Référencement Bing 13 Mai 2010
Des vrais explications pour un sitemap de qualité! "sous joomla" Débuter en référencement 21 Avril 2010
Explications sur Google Ad Planner Google : l'entreprise, les sites web, les services 15 Janvier 2010
L'API de Google Analytics : vidéo d'explications Google Analytics 17 Septembre 2009
En 3 semaines, gain puis recul de 50 places : explications ? Référencement Google 6 Mai 2009
Avis, conseil, aide, explications, etc... Demandes d'avis et de conseils sur vos sites 11 Février 2009
[Youtube] Qualité HD explications YouTube, Google Images et Google Maps 14 Novembre 2008
Explications, compréhension de résultats ? Référencement Google 29 Février 2008
Redirection, hébergement - demande d'explications Débuter en référencement 31 Janvier 2008
Enfin des explications claires sur l'attribut rel=nofollow Netlinking, backlinks, liens et redirections 2 Mai 2007