Test SEO - Validation W3C et sémantique

Discussion dans 'Tests et études de cas' créé par Lio7, 1 Juillet 2008.

  1. Lio7
    Lio7 WRInaute discret
    Inscrit:
    10 Avril 2007
    Messages:
    163
    J'aime reçus:
    0
    Bonsoir à tous,

    Je l'avais annoncé dans notre topic sur validation W3C et le référencement, voici donc mon premier test, soyez indulgents :oops:

    Le but de ce test, et de savoir si l'utilisation d'un code sémantique et valide W3C est un plus dans le positionnement des pages sur Google. En gros, est-ce qu'un code propre et soigné apporte vraiment quelque chose. J'ai toujours été persuadé que oui, mais le test me donnera peut-être tort.

    Pour cela, j'ai créé deux pages que j'ai remplies de contenu quasi-similaire, en changeant la tournure des phrases pour éviter le duplicate content. J'espère que c'est un bon choix, que ce se sera un facteur neutre pour le positionnement des deux pages au final.

    Deux requêtes sont visées : alimentati0n c0libri et alimentati0n c0libris (remplacez les 0 par des o).
    Ça à l'air d'être quelque chose de banal et je pense ne gêner personne sur cette faible requête.

    Sur les deux pages, l'équité des mots clés dans le code source à été respectées : alimentati0n est présent 9 fois, c0libris 7 fois et c0libri 3 fois.

    La page n°1 est un exemple de code propre : elle est valide XHTML 1.0 Strict et la sémantique des balises a été respectée : <ul> pour une liste, par exemple.
    Pour la page n°2, j'ai imité la structure d'un code mal-soigné : pas de doctype, mauvaise sémantique (<table> pour une liste), mauvais imbrication des balises. Le résultat final est visuellement le même que la page n°1

    Étant donné que l'importance des balises <Hn> est prouvée, elles ont été conservées sur les deux pages.
    J'ai retrouvé deux vieux NDD free très proches, et j'ai laissé une page sur chacun d'eux. Les deux pages ne sont pas liées entre elles, et ce topic constituera leur unique backlink

    Merci donc de ne pas faire de lien vers l'une de ces deux pages

    Page n°1 : Code valide et sémantique : http://yoyocreations.free.fr/seo-test-code-propre.html
    Page n°2 : Code invalide et non-sémantique : http://yoyo.creations.free.fr/seo-test-code-sale.html

    Les SERPS sur les requêtes visées seront régulièrement affichées dans le post n°2.


    Voilà c'est mon premier test, j'ai essayé d'éliminer le plus de facteurs influant sur le positionnement pour observer au mieux les effets d'un code propre.

    N'hésitez pas à me donner votre avis sur l'organisation du test et prévenez-moi le plus tôt possible si vous pensez que j'ai fait des erreurs.

    Merci à tous ;)
     
  2. Lio7
    Lio7 WRInaute discret
    Inscrit:
    10 Avril 2007
    Messages:
    163
    J'aime reçus:
    0
    Réservé.
     
  3. carole heinz
    carole heinz WRInaute passionné
    Inscrit:
    28 Février 2007
    Messages:
    2 442
    J'aime reçus:
    0
    très bonne idée.

    bien sûr, il y a toujours des facteurs qu'on ne peut pas maîtriser avec ce genre de test, le pb principal étant d'écarter le duplicate et donc fatalement on a du mal à ne faire varier qu'un seul facteur, à savoir le facteur étudié, ce qui suffit, sur un point de vue purement scientifique, à mettre tout le test à la poubelle.

    ce qui me semble dommage:

    - ne pas avoir mieux "fixé" le facteur title
    - les ndd: il n'ont pas la même structure
    - avoir annoncé le test et donné les URL, ça augmente la probabilité qu'un plaisantin mette tout par terre en faisant des liens.

    donc il est primordial, en plus de fournir les positions de chaque page, de contrôler (via yahoo) la présence de liens éventuels.
     
  4. SpeedAirMan
    SpeedAirMan WRInaute passionné
    Inscrit:
    2 Juin 2007
    Messages:
    2 391
    J'aime reçus:
    0
    Excellent test ;) (à suivre avec attention)


    Ont-ils déjà été indexés ? Au même moment ? L'ancienneté d'un NDD a une importance non négligeable. Y'a t'il d'autres pages indexées sur ces deux NDDs ? Plus un site a de pages indexées, plus il a de "poids" également.


    Après avoir regardé le code des deux pages, je me rend compte d'une chose : c'est très très light ! (pour les deux).

    Aucune mise en page, très peu d'éléments superflus...

    Quand on parle de sémantique, on pense aussi aux bonnes pratiques. En fait, un mauvais code est un code qui utilise beaucoup de balises inutiles ou pas adaptées.
    Dans le cas de ton test, je pense que ça va être un problème, car si, effectivement, tu as une page mieux codée que l'autre, elles sont bien trop "light" pour pouvoir les différencier nettement.

    Peut être qu'il aurait été mieux, finalement, de faire une brève mise en page (menu horizontal, nom du site, menu latéral etc. L'un avec mise en page en tableau, l'autre via des div (xHTML + CSS)).
    Là encore ça aurait posé un autre problème : le texte indexable aurait forcément été plus ou moins haut dans le code, et ça aurait eu une incidence sur le résultat des tests.


    A voir et à suivre donc ;)
     
  5. Lio7
    Lio7 WRInaute discret
    Inscrit:
    10 Avril 2007
    Messages:
    163
    J'aime reçus:
    0
    Merci pour vos deux réponses.

    @carole heinz : J'ai pensé à "fixer" le <title> mais toujours à cause du duplicate, j'ai préféré laissé la mention "Alimentati0n des c0libris" intacte, puis mettre deux mots sans importance derrières.
    Si tu penses que c'est vraiment nécessaire pour garder l'équité, pas de problème je changerai.

    @SpeedAirMan : Les deux NDD ont été enregistré le même jour il y a 2 ou 3 ans, à l'occasion de mes premiers balbutiements sur Internet. Ils ne m'ont jamais servi, n'ont jamais été indexés. Quand j'ai vu qu'il me restait ces deux noms très proches, je me suis connecté dessus pour la première fois.
    Il me semble qu'il est prouvé que la longueur de l'url et des répertoires n'influe pas sur le positionnement, la deuxième page ne devrait donc pas souffrir de ses deux sous-domaines.

    J'ai aussi pensé à faire une mise en page, mais ça m'aurait pas pris trop du temps. En plus, je ne sait pas coder avec les <table> ! Pour faire la page n°2, j'ai visité quelques sites mal codés et j'ai essayé de mal coder comme eux ... un code mal soigné et plus compliqué à construire qu'un code propre ^^

    Mais c'est vrai que la différence entre les deux pages n'est pas énorme. Comme tu le dis, les erreurs de sémantique touchent souvent la structure de la page. J'ai aussi utilisé le moins de CSS possible, pour se concentrer sur le HTML. J'ai voulu que le visuel final des deux pages soit le même car c'est le principal arguments des anti-sémantique : Pourquoi se casser la tête si ça marche avec mes <table> ?


    J'envisage la durée du test à deux mois ? C'est suffisant ?


    Merci de votre soutien, si vous avez d'autres questions/propositions n'hésitez pas :)

    PS : Le post est 2e sur "Test SEO" xD
     
  6. carole heinz
    carole heinz WRInaute passionné
    Inscrit:
    28 Février 2007
    Messages:
    2 442
    J'aime reçus:
    0
    et pour la structure différente des 2 ndd, tu ne penses pas que c'est un pb? (il y a un sous domaine et une sorte de "sous-sous"-domaine)

    à vrai dire je n'en sais rien, mais ça peut éventuellement jouer?
     
  7. lafleur2004
    lafleur2004 WRInaute passionné
    Inscrit:
    8 Avril 2004
    Messages:
    1 384
    J'aime reçus:
    0
    L'intention est louable, mais :

    Rien que le fait que Google lise un lien avant l'autre n'est probablement pas neutre pour l'algo :cry: (édit : je ne parle même pas du fait que, d'ici, l'une des pages sera peut-être plus cliquée que l'autre 8) )

    D'autre part, je ne crois pas qu'une page trouve sa position en quelques semaines. Le test se finit le 1er septembre, mais il serait plus intéressant de voir l'évolution des positions sur une période plus longue, notamment si les pages se révèlent sensibles à un filtre sur le duplicate content.

    Enfin, la position sur une seule occurrence n'est pas significative d'un bon référencement. Tu pourrais par exemple coller un tag de stats sur les pages pour voir laquelle draîne au final le plus de trafic moteur.

    Il est possible en effet que l'une des deux pages, à cause d'un Hn par exemple, chope un peu plus de trafic. Ce qui peut permettre à Google de mieux la qualifier et de lui donner un avantage ou un désavantage par rapport à l'autre. Des stats peuvent peut-être te permettre de repérer ce biais.
     
  8. Lio7
    Lio7 WRInaute discret
    Inscrit:
    10 Avril 2007
    Messages:
    163
    J'aime reçus:
    0
    Pour l'ordre des URL, comment veux-tu que je fasse ? Il faut bien qu'il y en est une avant l'autre !

    Je veux éviter d'amener trop de trafic sur ces pages, les informations données sont évasives.

    Pour savoir si le trafic influe, mieux vaut faire un autre test.

    PS : Tu viens d'ajouter un backlink pour chaque page ...
     
  9. lafleur2004
    lafleur2004 WRInaute passionné
    Inscrit:
    8 Avril 2004
    Messages:
    1 384
    J'aime reçus:
    0
    Oups, j'ai enlevé les liens !
     
  10. TOMHTML
    TOMHTML WRInaute accro
    Inscrit:
    25 Août 2004
    Messages:
    2 524
    J'aime reçus:
    0
    Tout à fait raison.
    Enfin, la meilleure position pour ces requêtes, ça restera WRI je pense ;)
     
  11. SpeedAirMan
    SpeedAirMan WRInaute passionné
    Inscrit:
    2 Juin 2007
    Messages:
    2 391
    J'aime reçus:
    0
    Si chaque page reçoit autant de backlinks de même qualité, ça ne déséquilibrera pas leur classement ;) (à priori).
     
  12. Lio7
    Lio7 WRInaute discret
    Inscrit:
    10 Avril 2007
    Messages:
    163
    J'aime reçus:
    0
    Oula pas de quiproquo, les requêtes visées sont : alimentati0n c0libris et alimentati0n c0libri mais remplacez les 0 par des o !! J'ai justement utilisé cette parade pour pas que WRI perturbe le test ;)
     
  13. jean lavoine
    jean lavoine Nouveau WRInaute
    Inscrit:
    2 Juillet 2008
    Messages:
    2
    J'aime reçus:
    0
     
  14. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 146
    J'aime reçus:
    351
    Très intéressant, merci de nous faire partager ton test. Je rejoins l'avis de SpeedAirMan : il aurait fallu faire des vraies pages, telles qu'on en trouve sur des vrais sites, sinon c'est plus dur de tirer des conclusions. Cad qu'il aurait fallu un menu, des liens vers d'autres pages, etc.
    Et pourquoi s'être compliqué la vie à utiliser 2 sites différents ?
     
  15. HawkEye
    HawkEye WRInaute accro
    Inscrit:
    23 Février 2004
    Messages:
    13 933
    J'aime reçus:
    4
    A noter que le simple fait que Google en indexe une avant l'autre est suffisant pour fausser le test.

    Néanmoins, j'attends de voir ce que ça raconte (et je serais pas surpris qu'on ait des surprises).

    NB: Pour moi le seul vrai intérêt est dans l'externalisation du design (feuille de style), qui permet une augmentation du ration contenu/contenant.
     
  16. SpeedAirMan
    SpeedAirMan WRInaute passionné
    Inscrit:
    2 Juin 2007
    Messages:
    2 391
    J'aime reçus:
    0
    Effectivement, le principal atout du xHTML est la légèreté du code (en plus de sa simplicité). C'est forcément un plus pour le référencement, je n'ai aucun doute là dessus.
     
  17. Lio7
    Lio7 WRInaute discret
    Inscrit:
    10 Avril 2007
    Messages:
    163
    J'aime reçus:
    0
    Merci de vos réponses. Je ne me doutais pas de l'importance de l'ordre des liens.

    Avez-vous quelque chose à proposer pour rééquilibrer la balance ?

    Pour le reste, je tiens compte de vos remarques et je ferais sûrement un deuxième test de confirmation (j'aurais acquis un peu d'expérience ^^).
     
  18. ptit_mousse
    ptit_mousse WRInaute discret
    Inscrit:
    19 Décembre 2006
    Messages:
    64
    J'aime reçus:
    0
    Pour ce qui de l'importance des liens et pour valider ton test, il faudrait je pense multiplier au moins le nombre de pair (code valide/invalide) par 100 et alterner l'ordre des liens pour chaque pair. On pourrait ainsi avoir un échantillon presque représentatif, en tout cas avec moins de voix qui s'élèveront pour dire que cela n'est pas suffisant.
     
  19. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 146
    J'aime reçus:
    351
    ça manque d'une approche un peu plus scientifique je trouve...
     
  20. SpeedAirMan
    SpeedAirMan WRInaute passionné
    Inscrit:
    2 Juin 2007
    Messages:
    2 391
    J'aime reçus:
    0
    Je crois qu'il y'a déjà eu des tests qui ont été effectués et qui prouvent qu'un code xHTML, généralement, permet :
    - de mettre le texte important plus haut dans le code (titres, paragraphes etc.) et ainsi mettre en avant le contenu (les 200 / 300 premiers caractères d'une page auraient tendance à avoir plus d'importance)
    - d'avoir, comme le disait HawkEye, un meilleur ratio contenu / contenant, et donc du contenu plus accessible.


    Le problème du test dont il est question sur ce topic c'est justement que le xHTML n'est pas assez bien mis en avant par rapport au HTML 4.0, ou plutôt l'inverse (le code HTML 4.0 n'est pas assez mal foutu :p). En résumé : les deux pages sont trop "lights" (niveau code) pour pouvoir correctement les départager (à mon avis).
     
  21. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 146
    J'aime reçus:
    351
    dans ce cas je suis preneur de toute référence à un test qui prouve ceci !
     
  22. SpeedAirMan
    SpeedAirMan WRInaute passionné
    Inscrit:
    2 Juin 2007
    Messages:
    2 391
    J'aime reçus:
    0
    J'ai pas ça sous la main, désolé, mais je suis quasiment sûr de l'avoir déjà lu à plusieurs reprises (en particulier le premier point : les 200 / 300 premiers caractères semblent avoir une plus grande importance). Si je trouve, je n'hésiterai pas ;)
     
  23. thickparasite
    thickparasite WRInaute passionné
    Inscrit:
    27 Avril 2003
    Messages:
    1 143
    J'aime reçus:
    0
    Je suis intéressé par les résultats de ce test car je n'ai jamais noté un seul avantage au code valide WC3.
    Au fil du temps, j'ai torturé le code source dans tous les sens, et jamais la supériorité d'un code "propre" est apparue.
    La CSS externe est certainement une bonne chose dans le sens émis par Hawk, mais je doute encore qu'il y a un réel avantage à favoriser les div plutôt que les table.
     
  24. mackloug
    mackloug WRInaute occasionnel
    Inscrit:
    23 Août 2006
    Messages:
    296
    J'aime reçus:
    0
    J'ai personnellement suivi une formation au référencement à Paris en février. Formation dispensée par un duo composé d'un certain Olivier Duffez et d'un Fabien Facéries ;-)

    J'ai là, dans mes notre de cours, plusieurs références aux 300 premiers caractères d'une page dans laquelle il faut concentrer les liens importants et les mots clés (J'ai pas le temps de consulter les supports de cours fournis).

    Y aurait-il de nouvelles recommandation ?
     
  25. lafleur2004
    lafleur2004 WRInaute passionné
    Inscrit:
    8 Avril 2004
    Messages:
    1 384
    J'aime reçus:
    0
    On peut mettre du signifiant dans les 300 premiers caractères sans problème en codant avec du table et on peut aussi mettre le texte important en fin de code avec les div. Pour cet aspect-là, ça n'a rien à voir, sans compter qu'on peut faire un code très propre et dépouillé en table et sortir une vraie bouillie, éventuellement valide, avec les div.

    En revanche, je ne vois pas bien quelle serait la justification, côté Google, pour mettre un bonus à une page codée comme ci ou comme ça, et donc un malus à une page codée autrement.

    Enfin, imaginons que l'on parvienne à une conclusion dans un sens ou dans l'autre. Que fait-on de l'info, sachant qu'elle sera remise en cause dans trois mois (exemple en cours : la prise en compte du flash, qui change) ? Conçoit-on un site, que l'on veut visible, en fonction de la tendance Google de l'instant, en connaissant la versatilité de l'algo et ses progrès techniques constants ? Il est bien plus valable de blinder sur les fondamentaux et de comprendre que certains choix se prennent en prenant en compte des critères qui n'ont rien à voir avec Google.

    Bref, ce type de test pourrait, avec le même protocole, servir à définir si les sites avec un fond bleu sont mieux référencés par Google ou pas. En faisant une page bleue et une page verte, il y aurait forcément une page qui sort mieux que l'autre, on pourrait en tirer des conclusions. Que diable pourrait-on en faire ?

    Tout ça pour dire que vouloir à tout prix valider tel ou tel critère précis pour le classement des pages me paraît être une entreprise assez vaine : on ne fait rien d'une telle info car il serait délirant de modifier un site à chaque fois qu'on s'aperçoit qu'on est moins bon sur tel critère. Du recul, une vision globale et des tentatives de compréhension du type de résultat que Google veut présenter aux internautes me paraît bien plus efficace.
     
  26. u73256
    u73256 WRInaute discret
    Inscrit:
    9 Octobre 2007
    Messages:
    189
    J'aime reçus:
    0
    Hugh ! Lafleur bien parlé.
     
  27. dawei
    dawei WRInaute discret
    Inscrit:
    6 Mars 2007
    Messages:
    57
    J'aime reçus:
    0
    @ la fleur : si ce forum ne te plait pas, personne ne t'oblige à y rester.

    Ce test est intéressant dans le sens où aujourd'hui, on se pose la question s'il est plus intéressant de se casser la tete à faire un site W3C valide ou non...

    Sachant que faire un site W3C valide peut prendre plus de temps et donc couter plus cher...

    Ensuite, ca sera également une réponse aux attentes des developpeurs de CMS : pour savoir s'il est impératif de passer leur CMS en W3C valide

    Ce qui est dommage dans ce topic, c'est qu'on a toutes les infos pour pourrir le test... et que certains éléments soient biasiés (age du NDD par exemple).
    Mais ce n'est en aucun cas dommage de faire ce test !
     
  28. lafleur2004
    lafleur2004 WRInaute passionné
    Inscrit:
    8 Avril 2004
    Messages:
    1 384
    J'aime reçus:
    0
    :lol:

    Je sais bien, mais j'aurais du mal à me passer de lire ce genre de répartie débile après avoir passé vingt minutes à essayer d'expliquer mon point de vue sur un sujet du forum. Donc pour l'instant, je reste ;)

    Sur le fond tu as raison, je suis tout à fait convaincu que toute la communauté des développeurs francophones est pendue à la requête "Alimentation colibri", qu'elle consulte tous les jours, car elle a bien conscience que son avenir tout entier en dépend. 8)
     
  29. SpeedAirMan
    SpeedAirMan WRInaute passionné
    Inscrit:
    2 Juin 2007
    Messages:
    2 391
    J'aime reçus:
    0
    Mettez vos querelles de côté, ça n'apporte rien à personne et ça pourri l'ambiance.


    ça, c'est discutable ;)
     
  30. lafleur2004
    lafleur2004 WRInaute passionné
    Inscrit:
    8 Avril 2004
    Messages:
    1 384
    J'aime reçus:
    0
    Ya pas de querelle : je sais pas qui c'est, je l'ai jamais vu ni lu et la première fois qu'il me cause, c'est pour me dire de me barrer. :lol: Je peux quand même répondre, oui ?
     
  31. SpeedAirMan
    SpeedAirMan WRInaute passionné
    Inscrit:
    2 Juin 2007
    Messages:
    2 391
    J'aime reçus:
    0
    Je veux juste remettre le topic dans le fil de sa discussion d'origine : on s'en fou de vos histoires, c'est pas le sujet qui nous intéresse ;) (même si je suis plutôt d'ac avec toi, mais parfois faut soit laisser passer, soit régler ses affaires en privé)
     
  32. mackloug
    mackloug WRInaute occasionnel
    Inscrit:
    23 Août 2006
    Messages:
    296
    J'aime reçus:
    0
    Y plus de respect pour les anciens, que veux-tu ? :wink:
     
  33. lafleur2004
    lafleur2004 WRInaute passionné
    Inscrit:
    8 Avril 2004
    Messages:
    1 384
    J'aime reçus:
    0
    Vas-y traite moi de vieillard aussi :lol:

    Bon, un modo peut-il faire le ménage ? Merci d'avance, Speedairman a raison, le sujet ne mérite pas de partir en vrille 8)
     
  34. mackloug
    mackloug WRInaute occasionnel
    Inscrit:
    23 Août 2006
    Messages:
    296
    J'aime reçus:
    0
    Je parle en nombre de messages, là tu fais bien un équivalent cinquantaine ! :lol:

    Tu me diras que ça fait d'Olivier un centenaire :wink:
     
  35. rudddy
    rudddy WRInaute passionné
    Inscrit:
    1 Août 2007
    Messages:
    2 142
    J'aime reçus:
    0
    je suis d'accord pour dire qu'il n'y aucune différence enre du div et du table


    car GG connait parfaitement les balises html (ou autres) et les retire de la page avant de calculer la densité, et donc aussi avant de mettre en avant les 300 caractères le cas échéant

    [HS] mackloug : content de te revoir. tu ne m'a jamais répondu à mes mails ... :-( [/HS]
     
  36. thickparasite
    thickparasite WRInaute passionné
    Inscrit:
    27 Avril 2003
    Messages:
    1 143
    J'aime reçus:
    0
    Bah, chacun est libre de proposer ses petites potions magiques sur le référencement. Je préfère rester intéressé par les résultats, même si je reste convaincu que mes petites expériences du passé sur le sujet restent d'actualité.
    Encore une fois, je persiste à croire qu'il n'y a absolument pas d'avantage au code respectueux des standards pour le référencement.
    Cependant, il existe une déformation du même respect des standards au profit du référencement. L'exemple le plus flagrant concerne les Hx et ALT.
    Je me souviens même d'un coup de gueule par Raphaël en 2004
    http://blog.alsacreations.com/2004/05/2 ... our-google
     
  37. Marie-Aude
    Marie-Aude WRInaute accro
    Inscrit:
    5 Juin 2006
    Messages:
    16 371
    J'aime reçus:
    2
    Rien que du bon sens :)
     
  38. Le_Phasme
    Le_Phasme WRInaute passionné
    Inscrit:
    4 Juillet 2003
    Messages:
    1 131
    J'aime reçus:
    0
    Oui tout à fait. Pour Marie Aude, je pense que le test va être perturbé par la position des liens sur ce topic.
    Sur le 1er il y aura plus de clic que sur le second.
    A partir de cela, des données seront traitées par la google toolbar et ca peut à mon avis biaiser le résultat.
    Enfin ce n'est que mon avis.
     
  39. lafleur2004
    lafleur2004 WRInaute passionné
    Inscrit:
    8 Avril 2004
    Messages:
    1 384
    J'aime reçus:
    0
    Je le pense aussi, mais dans quel délai ? Je ne suis pas sûr que ces données soient traitées en temps réel, c'est pour ça que je disais qu'une fin de test en septembre me paraît courte, il aurait fallu au moins six ou neuf mois.

    On va bien avoir un résultat pour ce test, puisque forcément une page sera positionnée plus haut que l'autre, mais mon petit doigt me dit que les interprétations vont prêter à débat 8)
     
  40. Lio7
    Lio7 WRInaute discret
    Inscrit:
    10 Avril 2007
    Messages:
    163
    J'aime reçus:
    0
    Bonjour à tous, je reviens de vacances et j'ai le malheur de constater que ce topic à presque tourné au pugilat ... c'est désolant.

    Tout le monde s'est attaché à démonter mon test, mais sans jamais proposer de solution.
    Même si il y a des défauts, l'expérience reste intéressante : imaginons qu'il y ait au final un gros écart de positionnement entre les deux pages. Il y aurait de quoi débattre.

    Le premier prix dans la série "je connais l'algo Google" est attribué à rudddy pour sa splendide vérité générale énoncée quelques posts plus haut, sans explications ni citation de sources.

    Merci de rester constructif.


    PS : Malgré 10 jours de présence, aucune des deux pages, n'est indexée. Faudra t'il multiplier les BL ?
     
  41. webmasterdemonsite
    webmasterdemonsite WRInaute impliqué
    Inscrit:
    1 Septembre 2007
    Messages:
    997
    J'aime reçus:
    0
    je ne suis pas sur que ton test revele quelque chose

    si j'ai bien compris:

    tu fais deux pages identique pour nos petits yeux mais avec une semantique differente...

    :arrow: duplicate content, maudit filtre !
     
  42. Lio7
    Lio7 WRInaute discret
    Inscrit:
    10 Avril 2007
    Messages:
    163
    J'aime reçus:
    0
    T'as même pas pris la peine de comparer les deux pages ... ni de lire mon post :

     
  43. webmasterdemonsite
    webmasterdemonsite WRInaute impliqué
    Inscrit:
    1 Septembre 2007
    Messages:
    997
    J'aime reçus:
    0
    si

    mais comment savoir quand google determine si c'est du duplicate ou non...?
     
  44. zapman
    zapman WRInaute discret
    Inscrit:
    8 Juin 2005
    Messages:
    91
    J'aime reçus:
    0
    Je fais remonter ce post car le test est désormais suffisamment ancien pour qu'on puisse s'intéresser à ses résultats.

    J'ai eu un peu de difficulté à trouver une requête me permettant de voir les deux pages classées (sans devoir examiner 2000 résultats ! :) )

    J'obtiens quelque chose en recherchant "Al1mentation col1br1 Nectars sèves 1nsectes petits o1seaux poll1n1sation cro1sée" (en remplaçant les 1 par des i). Ces termes sont tous présents sur les 2 pages.

    A la date d'aujourd'hui, et sur mon DC, je voie le "seo-test-code-sale" en 18° position et le "seo-test-code-propre" en 21° position.

    Les 2 résultats sont donc extrêmement proches et la méthode utilisée a permis d'éviter le Duplicate Content.

    La méthodologie est évidemment discutable (comme toute méthodologie, d'ailleurs) mais je trouve quand même que ce test présente un intérêt.

    Merci Lio7.
     
  45. lafleur2004
    lafleur2004 WRInaute passionné
    Inscrit:
    8 Avril 2004
    Messages:
    1 384
    J'aime reçus:
    0
    Pourtant, hein : https://www.google.fr/search?hl=fr&q=%22alimentation+des+colibris%22&bt ... cher&meta=

    Je conclus qu'un code propre est nocif au bon positionnement des pages dans les Serps, tandis qu'un code sale les favorise.

    Non ? :lol:

    Edit : et en plus, si j'en crois Siteexplorer, l'initiateur du test a plus linké la page au code propre que celle au code sale. 8)
     
  46. aladdin
    aladdin WRInaute passionné
    Inscrit:
    29 Avril 2005
    Messages:
    1 246
    J'aime reçus:
    0
    ayant fait une étude sur le fonctionnement des moteurs de recherche il y a quelques mois, et d'après plusieurs sources : un moteur ne peut pas tenir compte d'une tel ou tel norme de code (HTML, xhtml, "trash"HTML) pour positionner un site, ou alors ca serait un critaire négligeable par rapport à tout le reste.

    pourquoi ? plusieurs raisons parmis lesquelles je cite :
    - Comme dit plus haut, le moteur retire d'abord toutes les balises html avant l'analyse de densité, l'analyseur voit alors une page texte (ou presque), c'est la phase d'épuration.
    - Valider le code revient à parser l'HTML, et un parseur/valideur HTML mettrait plus de temps à analyser une page, ce qui pourrait être pénalisant pour le moteur pour finalement pas grand chose (un algo pour retirer les balises et beaucoup beaucoup plus rapide qu'un algo de parsing/validation)
    - Les normes W3C ne sont là pour donner une sorte de "bonne pratique" lors de la réalisation d'un site, et n'ont pas pour but de favoriser le positionnement d'un site ! c'est comme si ont disait qu'un document OpenOffice serait mieux référencé qu'un document word 2003 ! ca n'a pas de sens pour un moteur.
    - Les nomes W3C ne sont même pas respectés par les navigateurs, certains navigateurs affichent mieux un site pas très aux normes qu'un site en full XHTML (je ne citerais pas de nom pour que personne ne soit vexé ;) ) , et il ne faut pas oublier qu'un moteur de recherche et un outil destiné à un utilisateur lambda (non geek en général) avant tout, qui ne sait pas faire la différence entre du XHTML et du trash-html ...


    bref, tout ce blabla pour dire, que le plus important c'est le CONTENU, une bonne structure peut AIDER, mais ne remplacera jamais du bon contenu.


    -
     
  47. Viann
    Viann WRInaute discret
    Inscrit:
    17 Juillet 2008
    Messages:
    75
    J'aime reçus:
    0
    Personellement, je me souviens d'une interview d'un responsable qualité Google, qui disait que si le moteur avantage les codes propres plus de 90% des sites sur la toile serait pénalisé par rapport aux sites avec le code propre. De plus c'est Google n'arrete pas de dire qu'il faut faire des sites pour l'internaute, à votre avis combien d'internaute regarde le code ?

    Dans ce cas la Google se contredirait, mais bon en même temps averc toute la désinformation que Google semble orchestré pour garder un index propre on peut facilement considerer qu'il ne faut pas prendre au pieds de la lettre toutes les recommandations de Google.
     
  48. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 417
    J'aime reçus:
    0
    et combien d'internautes n'arrivent pas à naviguer correctement sur un site optimisé (sic) pour IE, exclusivement :lol:
     
  49. webmasterdemonsite
    webmasterdemonsite WRInaute impliqué
    Inscrit:
    1 Septembre 2007
    Messages:
    997
    J'aime reçus:
    0
    super interessante ta reflexion ! merci ! t'as du passer pas mal de temps a tester ca...

    sinon, regardez les sites en top position sur votre requete et regardez si ils sont valid or not :lol:
     
  50. sbo92
    sbo92 Nouveau WRInaute
    Inscrit:
    6 Mars 2009
    Messages:
    1
    J'aime reçus:
    0
    L'intérêt de faire un balisage sémantique sert surtout pour ma part à la mise en page CSS.
    A lieu de faire une multitude de classes, il est de cette façon possible d'utiliser des combinaisons de balise dans les sélecteurs CSS.

    Concernant la question du référencement, je pense qu'il y a peu d'impact. On trouve souvent des sites TRES bien positionné
    avec un balisage à la sémantique pauvre et invalide W3C !
     
  51. Druidefou
    Druidefou WRInaute discret
    Inscrit:
    10 Août 2005
    Messages:
    158
    J'aime reçus:
    0
    Comme dit plus haut, l'intérêt d'être valide est avant tout pour le visiteur, si c'est juste pour Google c'est inutile (pour l'instant). Chaque chose a sa place.
     
  52. SpeedAirMan
    SpeedAirMan WRInaute passionné
    Inscrit:
    2 Juin 2007
    Messages:
    2 391
    J'aime reçus:
    0
Chargement...
Similar Threads - Test SEO Validation Forum Date
A/B testing vs SEO Référencement Google 17 Juillet 2018
Blog de TEST SEO Lionel Belarbi -Référencement Expérimental Problèmes de référencement spécifiques à vos sites 28 Décembre 2017
[Test] Connaître son niveau SEO Débuter en référencement 1 Juin 2017
Question suite à un test SEO Référencement Google 2 Mai 2017
Houla le test SEO Débuter en référencement 9 Mars 2017
Quelles sont les meilleures formations SEO que vous avez testées ? Débuter en référencement 26 Juin 2015
Tests seo (notamment) Problèmes de référencement spécifiques à vos sites 8 Novembre 2014
A/B Testing et SEO Débuter en référencement 18 Septembre 2014
Testez votre SEO ! Demandes d'avis et de conseils sur vos sites 5 Décembre 2013
Avis des référenceurs sur un futur test SEO Débuter en référencement 14 Mars 2012
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice