L'algo de Google dévoilé: 300 critères détaillés

Discussion dans 'Crawl et indexation Google, sitemaps' créé par JanoLapin, 20 Juin 2011.

  1. longo600
    longo600 WRInaute passionné
    Inscrit:
    24 Février 2005
    Messages:
    2 166
    J'aime reçus:
    7
    Une méthode est une méthode. grosse erreur de penser comme cela . Effectivement, comme la répétition du mot clé dans le titre, dès que l'on vois qu'au bout de 3 il n'y a plus d'effet, on peu réduire. Mais on va quand même laisser jsuqu'a 5.

    POUR LES TAILLES D'IMAGES ET LE ALT, j'ai lu que le alt n'est plus vraiment pris en compte. Et bien erreur.
    Il n'est pas pris en compte sur certaines extensions et en fonction de la taille de l'image. J'ai fait les tests sur 5 tailles d'images, et 2 tailles sont retenues par google, les 3 autres sont oubliées ... Et ces deux tailles sont mieux noté que le H3 sur la requête MOTCLE , mais sont très loin dans la requête avec la commande LEMOTCLE SITE:www.site.truc

    Ce qui indique que le alt est pris en compte, mal classé, mais est choisi dans certaines tailles pour apparaitre dans le panel des serps. Mais ce n'est pas l'image qui est affichée, le liens de la page c'est tout.
    Et ce test n'a qu'une seule image, je voulais tester sur différents nombre, pas le temps.

    J'accepte toutes les remarques, mais il me semble qu'au regard des combinaisons possibles, ont est très au-delà des 5000, mais qu'en même temps, je le répète, 5000 c'est déjà pas mal non plus . En résumé, c'est le prix qui coince.
     
  2. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    20 898
    J'aime reçus:
    845
    en effet, c'est bien là le problème. C'est pour ça que j'ai tenté d'orienter la discussion vers la méthode... (arrêtez au passage de lyncher l'auteur)
     
  3. longo600
    longo600 WRInaute passionné
    Inscrit:
    24 Février 2005
    Messages:
    2 166
    J'aime reçus:
    7
    et encore j'ai eut une crampe ! :mrgreen:

    Moi je remercie raphael, cela m'a motivé pour mettre ma stratégie de test en route qui trainait dans les cartons depuis des mois. En mettant tout sur le papier, pour le moment, j'en suis 453 600 tests nécessaires pour les images seulement (rassurez-vous, dans la théorie ). Je met tous ca sur un nouveau site, c'était prévu de toute manière. Je vais parler des livres sur le référencement et le SEO, même si je lui casse un peu de bois sur la tête (pas méchamment non plus), je mettrais son livre dans la liste et je vais essayer de rencontrer Raphael Richard si possible.

    Ce serait bien de sa part de venir encore une fois s'exprimer et éclairer notre lanterne sur son travail.
     
  4. thickparasite
    thickparasite WRInaute passionné
    Inscrit:
    27 Avril 2003
    Messages:
    1 140
    J'aime reçus:
    0
    Ce n'est pas tant la tentative de décortiquer des critères de l'algo qui m'interpelle, mais plutôt le packaging.
    Sans à priori vis-à-vis de l'auteur que je ne connais pas, j'ai trois tentatives précises de compréhension de l'algo en tête.
    La première était un thread sur WMW où les membres partageaient leurs points de vue. Environ 130 facteurs sont ressortis de ce partage. Ann Smarty a rebondi sur cette liste pour suggérer 200 paramètres.
    L'autre étude a été réalisée par SEOmoz, dont j'ai traduit les résultats. L'index Linkscape de SEOmoz est un fantastique outil de comparaison qu'il faut avoir les moyens financiers et techniques d'entretenir et analyser.
    Bien entendu, c'est en parallèle des Ranking Factors SEOmoz dont la version 2011 vient de sortir, impliquant plusieurs dizaines de référenceurs pour évaluer le poids des facteurs influents le référencement.

    Pour ma part, lorsque je distille une formation à un référenceur, je demande de dresser une liste du Top 10 des facteurs influents, puis de donner une note de pondération positive et négative. Par exemple, je donne 8,5/10 à Title en pondération positive et 7,5/10 en pondération négative - c.a.d si la Title est trop longue, trop courte, trop spammy.... bref l'impact négatif qu'elle peut avoir si elle est mal foutue.
    Maintenant, LE gros principe à retenir est que ces facteurs valent que dalle si on ne sait pas les appliquer par rapport à un cas particulier. Le petit manuel du référenceur n'est pas applicable de manière générale tout simplement à cause de la nature même de l'algorithme qui dispose de couches non appliquées de manière uniformes au travers de l'index et même au long de la vie d'un site. Les impacts de ces fameux facteurs ne peuvent pas être généralisés point barre !

    Bref, pour conclure, l'intérêt de ces tentatives de reverse engineering m'intéressent lorsqu'elles sont collaboratives ou légitimes comme dans le cas de SEOmoz/Linkscape, mais ça me dérange lorsqu'il s'agit de vendre un ebook qui coûte apparemment un certain prix. Effectuer des milliers ou des millions de tests depuis son petit bout de la lorgnette n'est pas suffisant pour clamer le gros titre racoleur d'un livre payant. Un humble partage via un forum ou un blog aurait été salvateur, mais l'approche me dérange. Je ne suis pas intervenu pour lyncher l'auteur puisque je n'ai pas lu l'ouvrage, mais simplement pour remettre en cause la manière de communiquer et poser des doutes sur la légitimité de la méthodologie.
    Enfin bon, le peu que j'ai lu sur ses posts ne me rassure pas du tout. Prétendre que la Meta Keywords compte pour 0,25% (de qui, de quoi, pour qui, pour quoi, quand, où, comment, etc ?) est assez gonflé lorsqu'il suffit de glisser un terme retournant 0 résultat dans cette meta pour ne jamais la voir apparaître dans les résultats de recherche. Ce n'est pas 0,25, mais bel et bien 0 pointé dans tous les cas de figure.
    Par contre, je le défends un peu lorsqu'il s'agit de ses propres sites puisque c'est monnaie courante pour un référenceur d'être mal chaussé comme un cordonnier. J'ai moi-même en tête un paquet de défauts flagrants sur mon site qui figurent dans ma ToDo, mais pas le temps ni la motivation de m'y plonger.

    Sauf que ma défense tombe à l'eau avec son discours suivant :
    Aujourd'hui, je n'ai plus de "petits" sites (gros projets, mais plus longs, plus compliqués), mais j'ai monétisé pendant des années avec les moyens les plus évidents, puis revendu allègrement mes créations grâce à une valorisation par positionnement et CA.
    Et je peux vous dire que j'envoyais avec tout ce que je pouvais y mettre de mon propre savoir. Peu importe si la concurrence voit tout car il en manquera toujours un morceau dans l'analyse. C'est complètement bidon de prétendre ne pas utiliser ses connaissances sur son propre site.

    Non je ne vais pas téléphoner à Raphaël Richard, mais il peut tout à fait me joindre si l'envie lui prend de défendre son bout de gras. Qu'il m'envoie son pdf et je le lirais, mais je ne garantis pas d'en parler autour de moi si le contenu ne me persuade pas.
    Transformer ses détracteurs en prescripteurs est une leçon de communication imparable. Seulement, ce n'est pas au détracteur de faire le premier pas.
     
  5. longo600
    longo600 WRInaute passionné
    Inscrit:
    24 Février 2005
    Messages:
    2 166
    J'aime reçus:
    7
    Je suis globalement d'accord, mais dans le détail, je m'interroge toutefois sur certains points:
    - il n'y a pas de cas particulier en soit concernant l'optimisation d'un site. il y a des conditions , très probablement, dans l'algo lui-même (ou plusieurs algo?). Pour certains, l'algorithme est un analyseur de titre, d'url, de balise H1 , en résumé c'est une page web , du moins en image générale. Hors, je rappelles qu'un algorithme, c'est des lignes de programmation , par millier et surement par million pour google. Construire un algorithme est assez simple sur le papier. On construit par exemple 200 programmes, des modules, et chacun va gérer une variable, genre le H1 pour faire simple.

    Le programme va donc, comme tu le dis très bien, attribuer toutes sortes de valeurs de base, selon des conditions, des bonus ou des malus. Une fois que les 200 programmes ont fait leur travail de base, il y a toute une panoplie de mini programme qui vont gérer les conditions croisées entre les résultats de base; au cas ou, si , sinon etc ... Pour compliquer et être certain que personne ne déchiffre mon algo, je mettrais une variable hasard et une variable date. Ainsi, pour le keyword, Je donnerais un poids variable entre 0,00 et 0,09 au hasard, et qui change tous les 40 jours ... Un coup ca marche dans les test, et un coup ca ne marche plus ...

    C'est ainsi que parfois, certain font des test, et se font huer car les autres n'ont pas les mêmes résultats ... J'ai lu un test fait sur des images dans une e-boutique disant que les images n'ont pas d'incidence ( http://www.blog-ecommerce.com/google-image-ou-le-mythe-du-par-la-balise-alt). Alors que tout le monde dis le contraire.
    Qui croire, a lire le sous titre de cette page, "La Meilleure Agence de Référencement pour Ecommerce" , on se pose des questions (moi pas trop ...).
    Peut-etre que Google joue au yoyo avec les valeurs de critères et qu'une variable hasard est bien réelle.

    Si l'on fait des tests, soit on le fait uniquement sur des schémas de page totalement identique à son site et son style (blog, page produit, page annonce, liste de tableaux etc) et on a pas besoin de mélanger les genres, et les résultats obtenus ne seront valable que pour le même type de site. Mais en aucun cas on ne peux effectivement revendiquer ces tests êtres valables pour tous les types de sites.

    Soit on fait TOUS LES TESTS , avec toutes les combinaisons possible, de manière scientifique. En théorie, le test sur les images nécessiterais environ 453 600 tests , et ceux-ci ne pourrait pas êtres validés sans avoir fait tous les autres, soit quelques millions ...
    En partant du principe que l'algo est le plus compliqué et tordu possible, je vous donne un exemple :
    On veut croiser deux critères ensemble (sur les 200) et l'on va tester le critère ALT d'une image avec le critère H1, en se disant que google, en cas de croisement, pourrais ne rien faire de plus ou accorder un petit bonus supplémentaire, qu'il ne donnerais pas en association du H1 et H2 par exemple ...

    Alors je fais ma page de test avec le mot clé dans H1 et dans le ALT. Mais pour que je puisse déterminer si bonus il y a, il me faut isoler par d'autres test chacun des critère, c'est a dire un test sur le H1 tout seul, et un test sur le ALT. Donc, je suis obligé de faire tous les tests pour les valider. Le plus difficile sera de quantifier sur une échelle la valeur de chacun.

    Un vrai SEO doit avoir fait tous les test pour se prévaloir du statut d'expert ou de "maître" en la matière. Même si l'on peut grandement éliminer le volume des combinaisons possibles, il n'en reste pas moins quelques centaines de millier.
    Mais dans ce cas, la méthode s'appliquerais a toute sorte de site.

    Je crois comprendre que ce que tu voulais dire peut-etre, c'est que la bonne méthode appropriée pour un type de site (blog avec bcp de grands textes) ne sera pas efficace sur un autre type de site e-commerce avec beaucoup d'images et de mini textes de description. Mais la formule de l'algorithme reste inchangée, je pense, a moins que google en ait fait plusieurs très différentes selon justement le type de site (je doute un peu, mais possible). Cela devrait se voir de toute manière dans le cadre d'un ensemble de test exhaustif.

    Sinon, je trouve normal de monnayer le fruit de son travail, et Raphaël à tout a fait légitimement le droit de vendre le sien sur un e-book. Reste à nous démontrer que la méthode est fiable et qu'elle justifie le prix.

    De mon point de vue, il n'y a que le résultat qui compte. Donc, c'est en étant présent en première ou deuxième place dans les serps sur une requête que l'on prouve ses capacités et sa performance, même si c'est dépendant de milliers de liens externes plus ou moins naturel et légitimes ...

    La vrai optimisation devrait être uniquement in-site , et les concours de ref sont pour moi le seul moyen de prouver des capacités a créer des liens illégitimes (puisque le mot clé ne veut rien dire). Ce n'est pas dutout un gage de sérieux et de confiance. Un vrai concours devrais se faire sur une structure sans aucun lien externe, chose qui semble impossible car il y aura toujours un petit malin ou déçu ou des copieurs pour mettre des liens externes ou tricher ...

    Je projettes de faire un labo de test communautaire, mais ouvert seulement a des professionnels avec siren ou siret, verifiés. C'est comme ca. Avec 3 niveaux d'accès et d'information, un résumé et résultats (critères généraux) simple ouvert a tous, et 2 niveaux d'accès plus complexe et gratuit pour les pro français. Et en français, histoire de faire comprendre a ceux qui ne traduisent pas leur site qu'on peu aussi faire la même chose ... et mieux (sauf les fautes) :mrgreen:
     
  6. thickparasite
    thickparasite WRInaute passionné
    Inscrit:
    27 Avril 2003
    Messages:
    1 140
    J'aime reçus:
    0
    Regarde ce qu'implique la notion d'algorithme par couches pour comprendre ce que je veux dire. Tu pars dans une mauvaise direction autrement.

    Sinon, pour tenter d'imprégner de l'algo, tu peux faire tous les tests possibles, lire tous les posts de tous les forums SEO, acheter tous les livres (y compris celui à 1300€ de Raphael) et bosser sur 20 000 sites.
    Sauf que la clef ne réside pas là!
    Le but ultime est d'acquérir l'instinct indispensable pour prendre la bonne décision. Cet instinct peut s'obtenir plus ou moins rapidement, mais c'est le seul élément qui te permettra de sentir lorsque quelque chose cloche ou inspirer d'actionner tel levier plutôt qu'un autre.
    Dans tous les cas, ranger les sites dans des "cases" d'optimisation est une ineptie. Cela ne fonctionne pas comme ça en réalité. L'exemple qui me revient quasiment lors de chaque prestation est de voir une optimisation absurde sur un site et lorsque je demande d'où est venue l'inspiration, la réponse es toujours la même "j'ai vu ça sur le premier de ma requête fétiche". Comme par hasard, cela ne marche JAMAIS quand on l'applique à un autre site.
     
  7. JanoLapin
    JanoLapin WRInaute accro
    Inscrit:
    21 Septembre 2008
    Messages:
    4 226
    J'aime reçus:
    0
    Peux-tu stp préciser ce que tu veux dire, j'ai du mal à saisir.

    Ce que tu dis, s'inscrit-il (en vrai ou en faux) dans la logique de l'arbre de décision potentiellement utilisé par Google
     
  8. longo600
    longo600 WRInaute passionné
    Inscrit:
    24 Février 2005
    Messages:
    2 166
    J'aime reçus:
    7
    Quand tu parles de "couches" , que veus-tu dire? Tu parles des couches de passage successives des robots quand tu mets des nouvelles pages ou un nouveau site en ligne? J'ai vu cela sur mon site de test. mais un coup tu as un un critère qui passe devant, ensuite il disparait, pour revenir au final en tête ... cela dit, je considère l'ensemble comme un seul algorithme, mais je me trompe peut-etre.
    Si tu met l'intuition et l'inspiration en avant, alors Raphaël est probablement très bien placé sur cette échelle et il n'est nul besoin de demander une preuve de méthodologie, et le prix est peut-etre très justifié ...

    Sur l'aspect de l'analyse concurrentielle et de déterminer par le seul "VISU" les points les plus positifs exploité par les concurrents pour être en haut des serps, ca marche, selon ses compétence d'analyses ... si tu n'a pas ces compétences d'analyse, effectivement ca ne marchera jamais.

    cela dit, mes remarques sont basées sur le fait que j'interprète dans un sens tes propos, un sens qui n'est peut etre pas totalement le reflet du sens des idées que tu as développé. Mais on se comprend un peu quand même.
     
  9. kmenslow
    kmenslow WRInaute passionné
    Inscrit:
    7 Août 2006
    Messages:
    1 844
    J'aime reçus:
    0
    C'est une excellente idée.
     
  10. Marie-Aude
    Marie-Aude WRInaute accro
    Inscrit:
    5 Juin 2006
    Messages:
    16 952
    J'aime reçus:
    275
    Ce que je comprends c'est que Google a des facteurs nettement plus discriminants que d'autres, par exemple en fonction du type de site (e commerce ou blog perso) la présence des pages de conditions de vente, protection des données, etc est essentielle ou pas.
    Selon que le site est un "sous domaine" sur une grande plateforme (overblog, wordpress) ou un sous domaine d'un domaine normal aussi, les critères ne peuvent pas être identiques.

    Donc oui, il y a une sorte d'arbre de décision, d'appel ou pas de certains critères en fonction du type de site, "ou d'autres paramètres qui nous sont inconnus du dieu google"

    Ce qui multiplie d'autant plus les tests à effectuer mécaniquement ^^
     
  11. longo600
    longo600 WRInaute passionné
    Inscrit:
    24 Février 2005
    Messages:
    2 166
    J'aime reçus:
    7
  12. thickparasite
    thickparasite WRInaute passionné
    Inscrit:
    27 Avril 2003
    Messages:
    1 140
    J'aime reçus:
    0
    Il n'y a pas un algo Google comme tout le monde dit couramment, mais des couches ou strates successives.
    C'est basique comme notion. Tu crois vraiment que les centaines d'ingénieurs qui opèrent des centaines (milliers?) de modifications par an sur l'algo vont trituter une grosse formule unique ? Va bouger une virgule dans une formule de math pour voir l'effet que ça fait, alors à l'échelle d'un algo comme Google, c'est juste impensable.
    Nan, c'est beaucoup plus facile de plaquer les formules (filtres algorithmiques) les unes sur les autres et procure beaucoup plus d'aisance pour déterminer différentes interactions selon les zones et même dans le temps.
    La couche de base que l'ont peut considérer comme celle du PageRank n'a été remanié qu'une seule fois, en 2001, après sa création en 1996 et le lancement de Google en 1998.

    Pour compliquer le tout, il y a ce qu'on appelle les "effets de bord" qui sont une zone de turbulence lorsque les couches n'interagissent pas correctement entre elles. En d'autres termes, cela s'appelle un "bug" et un site pris dans un effet de bord est plutôt mal parti pour un bon bout de temps - jusqu'au lever de filtre.

    Bref, tu peux tester tout ce que tu veux, mais je suis contre l'idée de prendre des "trouvailles" de reverse engineering à la petite semaine pour des généralités. Nous avons les fondamentaux qui sont connus grâce à la méthode empirique. Ensuite, chaque année procure son lot de changement dans la jauge de pondération sur ces fondamentaux, mais après c'est purement spéculatif de clamer un "décodage" des 300 facteurs de l'algo. On sait aujourd'hui que quasiment chaque requête fait l'objet d'un test plus ou moins particulier et poussée (dixit Amit Singhal qui est une voie plus solide que Matt Cutts). Cela suggère des millions ou milliards de combinaisons possibles sur toutes les interactions entre plusieurs milliers de facteurs. Le chiffre de 300 est un petit coup marketing pour donner un crouton de pain aux SEO. La réalité est largement plus dense.
     
  13. longo600
    longo600 WRInaute passionné
    Inscrit:
    24 Février 2005
    Messages:
    2 166
    J'aime reçus:
    7
    On est donc bien sur la même longueur d'onde pour les couches, avec une nuance (pour moi) ... il n'y a qu'un résultat (presque) , qu'un seul classement donné dans les serps. cela signifie que l'algorithme, qu'il soit scindé en petits ou énormes modules, que tu partes dans une direction ou une autre dès le dut des premières couches, n'aboutira qu'a un seul classement. Donc un programme qui gère cet aboutissement.

    Si tu arrivait à mettre en place des tests exhaustifs sur ces milliards de combinaisons, en analysant la progression des résultats, tu arriverais a déceler les "carrefours" et les différents chemins avec leur valeurs de cotation des critères respectives.

    Plus facile a dire qu'a faire ... L'algorithme de google n'est pas en théorie totalement indéchiffrable, question de moyens et de ressource, mais dans la pratique, je le conçois, c'est loin d'être une mince affaire pour un seul homme ...
     
  14. thickparasite
    thickparasite WRInaute passionné
    Inscrit:
    27 Avril 2003
    Messages:
    1 140
    J'aime reçus:
    0
    Ok si tu veux....
     
  15. longo600
    longo600 WRInaute passionné
    Inscrit:
    24 Février 2005
    Messages:
    2 166
    J'aime reçus:
    7
    Bah, c'est pas si je veux, je n'ai pas de leçon a donner ni la qualité d'un expert. Je donnes mon point de vue et je peux me tromper, ce ne sera pas la première fois ni la dernière. Citer son point de vue et ses expériences, c'est se fixer des repères perso sur ses propres réflexions et les confronter aux autres. Après, chacun pense à sa manière. J'avoue que j'apprend bcp avec les échanges sur wri, bon test personnel en tout cas.
     
  16. JanoLapin
    JanoLapin WRInaute accro
    Inscrit:
    21 Septembre 2008
    Messages:
    4 226
    J'aime reçus:
    0
    hé les ingénieurs... faut aussi prendre en compte les modifications manuelles opérées par l'équipe de Matt, et les conséquences de l'existence deliste blanche et noire.
     
  17. thickparasite
    thickparasite WRInaute passionné
    Inscrit:
    27 Avril 2003
    Messages:
    1 140
    J'aime reçus:
    0
    Désolé, je ne peux pas tourner 3 fois différemment les notions que j'explique.
    Dans tous les cas, non nous ne sommes pas sur la même longueur d'onde...
     
  18. longo600
    longo600 WRInaute passionné
    Inscrit:
    24 Février 2005
    Messages:
    2 166
    J'aime reçus:
    7
    Bon le gentil lapin .. tu crois que déjà pas assez compliqué comme ca? ... :mrgreen:
    mais tu as raison!
     
  19. Bigb06
    Bigb06 WRInaute impliqué
    Inscrit:
    21 Mars 2007
    Messages:
    790
    J'aime reçus:
    1
    Moi ce qui me chagrine c'est que ok on peut déterminer des critères et faire une liste pondérée, mais il y a un facteur qu'on ne peut pas tester : le temps. Si on fait un échange de lien à J, celui-ci pourra être vu comme suspect par rapport au profil de liens alors qu'a J+30 il passera sous les radars (ce n'est qu'un exemple simplet).
     
  20. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 021
    J'aime reçus:
    1
    Je suis assez Ok avec ça depuis les années que je fréquente ce site qui reste une référence quoi qu'on puisse en dire, j'ai vu évoluer les choses au point que ce qui passe un jour ne passe plus le lendemains. J'ai même vu le retour de certaines choses qui avait été pénalisées sévèrement a certaines époque et qui permettait de nouveau de prendre du trafic deux ans plus tard.

    Bref pertinent ou pas ce livre a 12 mois grand max de visibilité après ça ... (a la condition qu'il soit pertinent a ce jour ce qui reste a vérifier)

    J'ajouterai que je sais plu qui a parlé de "ressenti personnel" pour appliquer une règle ou pas vis a vis d'un site. Je suis aussi assez OK avec ça et c'est même ma seule façon de faire. En effet a force de lire tout et son contraire il se dégage qu'un "sentiment " fruit d'une pondération globale de ce qu'on peut lire (de vrai ou faut) moralité je me suis toujours retrouvé devant un site avec le sentiment que tel truc était bon ou pas sans pouvoir l'expliquer. Et je sais aussi que chacun sent très bien là ou il est "faible". Donc passer quelque chose d'aussi complexe qu'un site web et ses utilisateurs (qui sont parti prenante de la popularité et du positionnement) dans une moulinette me semble hasardeux.
     
  21. longo600
    longo600 WRInaute passionné
    Inscrit:
    24 Février 2005
    Messages:
    2 166
    J'aime reçus:
    7
    Perso, j'ai fait cela depuis 1997, avec plus ou moins de succès, parfois des catastrophes ... Aujourd'hui, j'éprouve le besoin de confirmer mes points de vues par des tests, et même imparfait, il me montrent que je me trompe sur mon analyse visuelle.
    Peut-etre que c'est l'âge , tout se détraque ! :mrgreen:

    Dailleurs, les résultats de mes test on été stables plusieurs mois, et je constate que depuis quelques jours, le classement a été complètement bouleversé ... totalement !
     
  22. thickparasite
    thickparasite WRInaute passionné
    Inscrit:
    27 Avril 2003
    Messages:
    1 140
    J'aime reçus:
    0
    A l'échelle du Web, les manips manuelles sont une variable négligeable.
    Pas besoin d'être ingénieur pour piger ça ;)
     
  23. JanoLapin
    JanoLapin WRInaute accro
    Inscrit:
    21 Septembre 2008
    Messages:
    4 226
    J'aime reçus:
    0
    oué.. moi c'est pas tout le web qui m'intéresse mais.. disons.. les quelques premières pages des serps.

    Or les modif' manuelles concernent justement ces pages là...
     
  24. thickparasite
    thickparasite WRInaute passionné
    Inscrit:
    27 Avril 2003
    Messages:
    1 140
    J'aime reçus:
    0
    L'adage dit que les problèmes arrivent toujours en première page !
    Sauf que ta remarque qui se voulait très maline est juste hors sujet. Pas besoin d'ebook ou de reverse engineering pour taper tous les jours ta poignée de requêtes chouchou et émettre un jugement qui n'a rien de scientifique et encore moins applicable à la globalité de ces fameux ranking factors.
    Ca me fait toujours bien rire quand un gonze arrive son contre-exemple sur sa requête chérie, tandis que les autres essayent de trouver le pourquoi du comment sur un levier particulier.
     
  25. JanoLapin
    JanoLapin WRInaute accro
    Inscrit:
    21 Septembre 2008
    Messages:
    4 226
    J'aime reçus:
    0
    je ne comprends pas, est-ce que tu peux détailler stp... (à moins que tu ne t'adressais pas à moi :mrgreen: )
     
  26. longo600
    longo600 WRInaute passionné
    Inscrit:
    24 Février 2005
    Messages:
    2 166
    J'aime reçus:
    7
    Je me demande si tout le monde appliquais la bonne recette idéale en rapport avec son type de site en parfaite concordance avec l'algorithme de Google ... incapable de savoir qui est le premier a classer ... il se suicide ! :mrgreen: lol ... j'arrête !
     
  27. patapon87
    patapon87 WRInaute passionné
    Inscrit:
    12 Janvier 2010
    Messages:
    1 124
    J'aime reçus:
    0
    En tout cas l'article est dans la newsletter "JDN Moteurs & Référencement" d'aujourd'hui !
     
  28. longo600
    longo600 WRInaute passionné
    Inscrit:
    24 Février 2005
    Messages:
    2 166
    J'aime reçus:
    7
    Ben j'ai rien vu du suicide de l'algo de Google :mrgreen:

    Pas de news de Raphael, c'est un lien vers le sujet? Tu as le lien stp @patapon87?
     
  29. patapon87
    patapon87 WRInaute passionné
    Inscrit:
    12 Janvier 2010
    Messages:
    1 124
    J'aime reçus:
    0
  30. longo600
    longo600 WRInaute passionné
    Inscrit:
    24 Février 2005
    Messages:
    2 166
    J'aime reçus:
    7
    Rien de neuf sur le sujet ...
    J'ai tel a l'auteur et laissé mon num pour discuter de vive voix, car je n'aime pas donner non plus un avis sans connaitre. il doit être en vacances car je n'ai pas de nouvelles.
    De l'ensemble des forums ou commentaires ci et là, c'est assez critique. il y a donc une maladresse quelques part, et l'on attend toujours un signe de l'intéressé, maintenant que les quelques tomates jetés sont tombés au sol...

    A moins qu'il ait vendu un millier d'e-book et que revenir sur le sujet n'a aucun intérêt pour lui ... :mrgreen:
     
  31. milkiway
    milkiway WRInaute accro
    Inscrit:
    3 Février 2004
    Messages:
    4 196
    J'aime reçus:
    0
    Qu'est devenu ce ... personnage ?
     
  32. Thiery31
    Thiery31 WRInaute passionné
    Inscrit:
    9 Mars 2011
    Messages:
    1 593
    J'aime reçus:
    18
    Il a disparu avec l'arrivée de Panda. :mrgreen:
     
Chargement...
Similar Threads - algo Google dévoilé Forum Date
L'algorithme de Google enfin dévoilé ! Débuter en référencement 12 Mars 2007
L'algorithme de Google devoilé ? Référencement Google 1 Novembre 2002
Mise à jour de l’algorithme Google Spam d’octobre 2022 Référencement Google 22 Octobre 2022
Nouvel algo Google (nov. 2020) : sous-sujets (subtopics) Référencement Google 11 Janvier 2021
Perte de 30 à 40% de trafic suite à la mise à jour de l'algo de Google Problèmes de référencement spécifiques à vos sites 13 Avril 2019
Mise à jour globale de l'algo Google 01/08/18 Référencement Google 2 Août 2018
Mise à jour algo Google 09/03/2018 Référencement Google 13 Mars 2018
Les filtres algorithmiques de Google Débuter en référencement 5 Novembre 2017
Google explique qu'un algo d'IA peut supprimer le watermarking des images Google : l'entreprise, les sites web, les services 21 Août 2017
Critères de l'algo de Google Référencement Google 18 Septembre 2016
Algorithmes Google et Google Scholar Référencement Google 21 Avril 2015
Google sort son nouvel algorithme Fish Référencement Google 1 Avril 2015
SEO : les principaux algorithmes de Google Référencement Google 20 Mars 2015
L'algo Google Pingouin serait mis à jour en continu Référencement Google 10 Décembre 2014
Sortie de pénalité Google Pingouin algorithmique (Retour d'expérience) Référencement Google 23 Octobre 2014
Nouvel algo google cà bouge tous les jours. Débuter en référencement 10 Octobre 2014
Referencement pour l'utilisateur et non pour l'algo google Débuter en référencement 23 Septembre 2014
Algo Google : Payday Loan 2.0 Référencement Google 21 Mai 2014
Pénalité algo Google depuis 1 ans maintenant Problèmes de référencement spécifiques à vos sites 26 Avril 2014
Identifier si une pénalité algorithmique Google touche son site Référencement Google 26 Mars 2014