Test SEO - Validation W3C et sémantique

WRInaute discret
Bonsoir à tous,

Je l'avais annoncé dans notre topic sur validation W3C et le référencement, voici donc mon premier test, soyez indulgents :oops:

Le but de ce test, et de savoir si l'utilisation d'un code sémantique et valide W3C est un plus dans le positionnement des pages sur Google. En gros, est-ce qu'un code propre et soigné apporte vraiment quelque chose. J'ai toujours été persuadé que oui, mais le test me donnera peut-être tort.

Pour cela, j'ai créé deux pages que j'ai remplies de contenu quasi-similaire, en changeant la tournure des phrases pour éviter le duplicate content. J'espère que c'est un bon choix, que ce se sera un facteur neutre pour le positionnement des deux pages au final.

Deux requêtes sont visées : alimentati0n c0libri et alimentati0n c0libris (remplacez les 0 par des o).
Ça à l'air d'être quelque chose de banal et je pense ne gêner personne sur cette faible requête.

Sur les deux pages, l'équité des mots clés dans le code source à été respectées : alimentati0n est présent 9 fois, c0libris 7 fois et c0libri 3 fois.

La page n°1 est un exemple de code propre : elle est valide XHTML 1.0 Strict et la sémantique des balises a été respectée : <ul> pour une liste, par exemple.
Pour la page n°2, j'ai imité la structure d'un code mal-soigné : pas de doctype, mauvaise sémantique (<table> pour une liste), mauvais imbrication des balises. Le résultat final est visuellement le même que la page n°1

Étant donné que l'importance des balises <Hn> est prouvée, elles ont été conservées sur les deux pages.
J'ai retrouvé deux vieux NDD free très proches, et j'ai laissé une page sur chacun d'eux. Les deux pages ne sont pas liées entre elles, et ce topic constituera leur unique backlink

Merci donc de ne pas faire de lien vers l'une de ces deux pages

Page n°1 : Code valide et sémantique : http://yoyocreations.free.fr/seo-test-code-propre.html
Page n°2 : Code invalide et non-sémantique : http://yoyo.creations.free.fr/seo-test-code-sale.html

Les SERPS sur les requêtes visées seront régulièrement affichées dans le post n°2.


Voilà c'est mon premier test, j'ai essayé d'éliminer le plus de facteurs influant sur le positionnement pour observer au mieux les effets d'un code propre.

N'hésitez pas à me donner votre avis sur l'organisation du test et prévenez-moi le plus tôt possible si vous pensez que j'ai fait des erreurs.

Merci à tous ;)
 
WRInaute passionné
très bonne idée.

bien sûr, il y a toujours des facteurs qu'on ne peut pas maîtriser avec ce genre de test, le pb principal étant d'écarter le duplicate et donc fatalement on a du mal à ne faire varier qu'un seul facteur, à savoir le facteur étudié, ce qui suffit, sur un point de vue purement scientifique, à mettre tout le test à la poubelle.

ce qui me semble dommage:

- ne pas avoir mieux "fixé" le facteur title
- les ndd: il n'ont pas la même structure
- avoir annoncé le test et donné les URL, ça augmente la probabilité qu'un plaisantin mette tout par terre en faisant des liens.

donc il est primordial, en plus de fournir les positions de chaque page, de contrôler (via yahoo) la présence de liens éventuels.
 
WRInaute passionné
Excellent test ;) (à suivre avec attention)


J'ai retrouvé deux vieux NDD free très proches
Ont-ils déjà été indexés ? Au même moment ? L'ancienneté d'un NDD a une importance non négligeable. Y'a t'il d'autres pages indexées sur ces deux NDDs ? Plus un site a de pages indexées, plus il a de "poids" également.


Après avoir regardé le code des deux pages, je me rend compte d'une chose : c'est très très light ! (pour les deux).

Aucune mise en page, très peu d'éléments superflus...

Quand on parle de sémantique, on pense aussi aux bonnes pratiques. En fait, un mauvais code est un code qui utilise beaucoup de balises inutiles ou pas adaptées.
Dans le cas de ton test, je pense que ça va être un problème, car si, effectivement, tu as une page mieux codée que l'autre, elles sont bien trop "light" pour pouvoir les différencier nettement.

Peut être qu'il aurait été mieux, finalement, de faire une brève mise en page (menu horizontal, nom du site, menu latéral etc. L'un avec mise en page en tableau, l'autre via des div (xHTML + CSS)).
Là encore ça aurait posé un autre problème : le texte indexable aurait forcément été plus ou moins haut dans le code, et ça aurait eu une incidence sur le résultat des tests.


A voir et à suivre donc ;)
 
WRInaute discret
Merci pour vos deux réponses.

@carole heinz : J'ai pensé à "fixer" le <title> mais toujours à cause du duplicate, j'ai préféré laissé la mention "Alimentati0n des c0libris" intacte, puis mettre deux mots sans importance derrières.
Si tu penses que c'est vraiment nécessaire pour garder l'équité, pas de problème je changerai.

@SpeedAirMan : Les deux NDD ont été enregistré le même jour il y a 2 ou 3 ans, à l'occasion de mes premiers balbutiements sur Internet. Ils ne m'ont jamais servi, n'ont jamais été indexés. Quand j'ai vu qu'il me restait ces deux noms très proches, je me suis connecté dessus pour la première fois.
Il me semble qu'il est prouvé que la longueur de l'url et des répertoires n'influe pas sur le positionnement, la deuxième page ne devrait donc pas souffrir de ses deux sous-domaines.

J'ai aussi pensé à faire une mise en page, mais ça m'aurait pas pris trop du temps. En plus, je ne sait pas coder avec les <table> ! Pour faire la page n°2, j'ai visité quelques sites mal codés et j'ai essayé de mal coder comme eux ... un code mal soigné et plus compliqué à construire qu'un code propre ^^

Mais c'est vrai que la différence entre les deux pages n'est pas énorme. Comme tu le dis, les erreurs de sémantique touchent souvent la structure de la page. J'ai aussi utilisé le moins de CSS possible, pour se concentrer sur le HTML. J'ai voulu que le visuel final des deux pages soit le même car c'est le principal arguments des anti-sémantique : Pourquoi se casser la tête si ça marche avec mes <table> ?


J'envisage la durée du test à deux mois ? C'est suffisant ?


Merci de votre soutien, si vous avez d'autres questions/propositions n'hésitez pas :)

PS : Le post est 2e sur "Test SEO" xD
 
WRInaute passionné
et pour la structure différente des 2 ndd, tu ne penses pas que c'est un pb? (il y a un sous domaine et une sorte de "sous-sous"-domaine)

à vrai dire je n'en sais rien, mais ça peut éventuellement jouer?
 
WRInaute passionné
L'intention est louable, mais :

RavN a dit:
Page n°1 : Code valide et sémantique : -http://yoyocreations.free.fr/seo-test-code-propre.html
Page n°2 : Code invalide et non-sémantique : -http://yoyo.creations.free.fr/seo-test-code-sale.html

Rien que le fait que Google lise un lien avant l'autre n'est probablement pas neutre pour l'algo :cry: (édit : je ne parle même pas du fait que, d'ici, l'une des pages sera peut-être plus cliquée que l'autre 8) )

D'autre part, je ne crois pas qu'une page trouve sa position en quelques semaines. Le test se finit le 1er septembre, mais il serait plus intéressant de voir l'évolution des positions sur une période plus longue, notamment si les pages se révèlent sensibles à un filtre sur le duplicate content.

Enfin, la position sur une seule occurrence n'est pas significative d'un bon référencement. Tu pourrais par exemple coller un tag de stats sur les pages pour voir laquelle draîne au final le plus de trafic moteur.

Il est possible en effet que l'une des deux pages, à cause d'un Hn par exemple, chope un peu plus de trafic. Ce qui peut permettre à Google de mieux la qualifier et de lui donner un avantage ou un désavantage par rapport à l'autre. Des stats peuvent peut-être te permettre de repérer ce biais.
 
WRInaute discret
Pour l'ordre des URL, comment veux-tu que je fasse ? Il faut bien qu'il y en est une avant l'autre !

Je veux éviter d'amener trop de trafic sur ces pages, les informations données sont évasives.

Pour savoir si le trafic influe, mieux vaut faire un autre test.

PS : Tu viens d'ajouter un backlink pour chaque page ...
 
WRInaute accro
lafleur2004 a dit:
Rien que le fait que Google lise un lien avant l'autre n'est probablement pas neutre pour l'algo :cry: (édit : je ne parle même pas du fait que, d'ici, l'une des pages sera peut-être plus cliquée que l'autre 8) )

Tout à fait raison.
Enfin, la meilleure position pour ces requêtes, ça restera WRI je pense ;)
 
WRInaute discret
TOMHTML a dit:
lafleur2004 a dit:
Rien que le fait que Google lise un lien avant l'autre n'est probablement pas neutre pour l'algo :cry: (édit : je ne parle même pas du fait que, d'ici, l'une des pages sera peut-être plus cliquée que l'autre 8) )

Tout à fait raison.
Enfin, la meilleure position pour ces requêtes, ça restera WRI je pense ;)

Oula pas de quiproquo, les requêtes visées sont : alimentati0n c0libris et alimentati0n c0libri mais remplacez les 0 par des o !! J'ai justement utilisé cette parade pour pas que WRI perturbe le test ;)
 
Nouveau WRInaute
RavN a dit:
TOMHTML a dit:
lafleur2004 a dit:
Rien que le fait que Google lise un lien avant l'autre n'est probablement pas neutre pour l'algo :cry: (édit : je ne parle même pas du fait que, d'ici, l'une des pages sera peut-être plus cliquée que l'autre 8) )

Tout à fait raison.
Enfin, la meilleure position pour ces requêtes, ça restera WRI je pense ;)

Oula pas de quiproquo, les requêtes visées sont : alimentati0n c0libris et alimentati0n c0libri mais remplacez les 0 par des o !! J'ai justement utilisé cette parade pour pas que WRI perturbe le test ;)
 
Olivier Duffez (admin)
Membre du personnel
Très intéressant, merci de nous faire partager ton test. Je rejoins l'avis de SpeedAirMan : il aurait fallu faire des vraies pages, telles qu'on en trouve sur des vrais sites, sinon c'est plus dur de tirer des conclusions. Cad qu'il aurait fallu un menu, des liens vers d'autres pages, etc.
Et pourquoi s'être compliqué la vie à utiliser 2 sites différents ?
 
WRInaute accro
A noter que le simple fait que Google en indexe une avant l'autre est suffisant pour fausser le test.

Néanmoins, j'attends de voir ce que ça raconte (et je serais pas surpris qu'on ait des surprises).

NB: Pour moi le seul vrai intérêt est dans l'externalisation du design (feuille de style), qui permet une augmentation du ration contenu/contenant.
 
WRInaute passionné
Effectivement, le principal atout du xHTML est la légèreté du code (en plus de sa simplicité). C'est forcément un plus pour le référencement, je n'ai aucun doute là dessus.
 
WRInaute discret
Merci de vos réponses. Je ne me doutais pas de l'importance de l'ordre des liens.

Avez-vous quelque chose à proposer pour rééquilibrer la balance ?

Pour le reste, je tiens compte de vos remarques et je ferais sûrement un deuxième test de confirmation (j'aurais acquis un peu d'expérience ^^).
 
WRInaute discret
Pour ce qui de l'importance des liens et pour valider ton test, il faudrait je pense multiplier au moins le nombre de pair (code valide/invalide) par 100 et alterner l'ordre des liens pour chaque pair. On pourrait ainsi avoir un échantillon presque représentatif, en tout cas avec moins de voix qui s'élèveront pour dire que cela n'est pas suffisant.
 
Olivier Duffez (admin)
Membre du personnel
SpeedAirMan a dit:
Effectivement, le principal atout du xHTML est la légèreté du code (en plus de sa simplicité). C'est forcément un plus pour le référencement, je n'ai aucun doute là dessus.
ça manque d'une approche un peu plus scientifique je trouve...
 
WRInaute passionné
Je crois qu'il y'a déjà eu des tests qui ont été effectués et qui prouvent qu'un code xHTML, généralement, permet :
- de mettre le texte important plus haut dans le code (titres, paragraphes etc.) et ainsi mettre en avant le contenu (les 200 / 300 premiers caractères d'une page auraient tendance à avoir plus d'importance)
- d'avoir, comme le disait HawkEye, un meilleur ratio contenu / contenant, et donc du contenu plus accessible.


Le problème du test dont il est question sur ce topic c'est justement que le xHTML n'est pas assez bien mis en avant par rapport au HTML 4.0, ou plutôt l'inverse (le code HTML 4.0 n'est pas assez mal foutu :p). En résumé : les deux pages sont trop "lights" (niveau code) pour pouvoir correctement les départager (à mon avis).
 
WRInaute passionné
WebRankInfo a dit:
dans ce cas je suis preneur de toute référence à un test qui prouve ceci !
J'ai pas ça sous la main, désolé, mais je suis quasiment sûr de l'avoir déjà lu à plusieurs reprises (en particulier le premier point : les 200 / 300 premiers caractères semblent avoir une plus grande importance). Si je trouve, je n'hésiterai pas ;)
 
WRInaute passionné
Je suis intéressé par les résultats de ce test car je n'ai jamais noté un seul avantage au code valide WC3.
Au fil du temps, j'ai torturé le code source dans tous les sens, et jamais la supériorité d'un code "propre" est apparue.
La CSS externe est certainement une bonne chose dans le sens émis par Hawk, mais je doute encore qu'il y a un réel avantage à favoriser les div plutôt que les table.
 
WRInaute occasionnel
WebRankInfo a dit:
dans ce cas je suis preneur de toute référence à un test qui prouve ceci !

J'ai personnellement suivi une formation au référencement à Paris en février. Formation dispensée par un duo composé d'un certain Olivier Duffez et d'un Fabien Facéries ;-)

J'ai là, dans mes notre de cours, plusieurs références aux 300 premiers caractères d'une page dans laquelle il faut concentrer les liens importants et les mots clés (J'ai pas le temps de consulter les supports de cours fournis).

Y aurait-il de nouvelles recommandation ?
 
WRInaute passionné
On peut mettre du signifiant dans les 300 premiers caractères sans problème en codant avec du table et on peut aussi mettre le texte important en fin de code avec les div. Pour cet aspect-là, ça n'a rien à voir, sans compter qu'on peut faire un code très propre et dépouillé en table et sortir une vraie bouillie, éventuellement valide, avec les div.

En revanche, je ne vois pas bien quelle serait la justification, côté Google, pour mettre un bonus à une page codée comme ci ou comme ça, et donc un malus à une page codée autrement.

Enfin, imaginons que l'on parvienne à une conclusion dans un sens ou dans l'autre. Que fait-on de l'info, sachant qu'elle sera remise en cause dans trois mois (exemple en cours : la prise en compte du flash, qui change) ? Conçoit-on un site, que l'on veut visible, en fonction de la tendance Google de l'instant, en connaissant la versatilité de l'algo et ses progrès techniques constants ? Il est bien plus valable de blinder sur les fondamentaux et de comprendre que certains choix se prennent en prenant en compte des critères qui n'ont rien à voir avec Google.

Bref, ce type de test pourrait, avec le même protocole, servir à définir si les sites avec un fond bleu sont mieux référencés par Google ou pas. En faisant une page bleue et une page verte, il y aurait forcément une page qui sort mieux que l'autre, on pourrait en tirer des conclusions. Que diable pourrait-on en faire ?

Tout ça pour dire que vouloir à tout prix valider tel ou tel critère précis pour le classement des pages me paraît être une entreprise assez vaine : on ne fait rien d'une telle info car il serait délirant de modifier un site à chaque fois qu'on s'aperçoit qu'on est moins bon sur tel critère. Du recul, une vision globale et des tentatives de compréhension du type de résultat que Google veut présenter aux internautes me paraît bien plus efficace.
 
WRInaute discret
@ la fleur : si ce forum ne te plait pas, personne ne t'oblige à y rester.

Ce test est intéressant dans le sens où aujourd'hui, on se pose la question s'il est plus intéressant de se casser la tete à faire un site W3C valide ou non...

Sachant que faire un site W3C valide peut prendre plus de temps et donc couter plus cher...

Ensuite, ca sera également une réponse aux attentes des developpeurs de CMS : pour savoir s'il est impératif de passer leur CMS en W3C valide

Ce qui est dommage dans ce topic, c'est qu'on a toutes les infos pour pourrir le test... et que certains éléments soient biasiés (age du NDD par exemple).
Mais ce n'est en aucun cas dommage de faire ce test !
 
WRInaute passionné
dawei a dit:
@ la fleur : si ce forum ne te plait pas, personne ne t'oblige à y rester.

:lol:

Je sais bien, mais j'aurais du mal à me passer de lire ce genre de répartie débile après avoir passé vingt minutes à essayer d'expliquer mon point de vue sur un sujet du forum. Donc pour l'instant, je reste ;)

Sur le fond tu as raison, je suis tout à fait convaincu que toute la communauté des développeurs francophones est pendue à la requête "Alimentation colibri", qu'elle consulte tous les jours, car elle a bien conscience que son avenir tout entier en dépend. 8)
 
WRInaute passionné
SpeedAirMan a dit:
Mettez vos querelles de côté, ça n'apporte rien à personne et ça pourri l'ambiance.

Ya pas de querelle : je sais pas qui c'est, je l'ai jamais vu ni lu et la première fois qu'il me cause, c'est pour me dire de me barrer. :lol: Je peux quand même répondre, oui ?
 
WRInaute passionné
lafleur2004 a dit:
SpeedAirMan a dit:
Mettez vos querelles de côté, ça n'apporte rien à personne et ça pourri l'ambiance.

Ya pas de querelle : je sais pas qui c'est, je l'ai jamais vu ni lu et la première fois qu'il me cause, c'est pour me dire de me barrer. :lol: Je peux quand même répondre, oui ?
Je veux juste remettre le topic dans le fil de sa discussion d'origine : on s'en fou de vos histoires, c'est pas le sujet qui nous intéresse ;) (même si je suis plutôt d'ac avec toi, mais parfois faut soit laisser passer, soit régler ses affaires en privé)
 
WRInaute occasionnel
lafleur2004 a dit:
Ya pas de querelle : je sais pas qui c'est, je l'ai jamais vu ni lu et la première fois qu'il me cause, c'est pour me dire de me barrer. :lol: Je peux quand même répondre, oui ?

Y plus de respect pour les anciens, que veux-tu ? :wink:
 
WRInaute passionné
mackloug a dit:
Y plus de respect pour les anciens, que veux-tu ? :wink:

Vas-y traite moi de vieillard aussi :lol:

Bon, un modo peut-il faire le ménage ? Merci d'avance, Speedairman a raison, le sujet ne mérite pas de partir en vrille 8)
 
WRInaute passionné
je suis d'accord pour dire qu'il n'y aucune différence enre du div et du table


car GG connait parfaitement les balises html (ou autres) et les retire de la page avant de calculer la densité, et donc aussi avant de mettre en avant les 300 caractères le cas échéant

[HS] mackloug : content de te revoir. tu ne m'a jamais répondu à mes mails ... :-( [/HS]
 
WRInaute passionné
Bah, chacun est libre de proposer ses petites potions magiques sur le référencement. Je préfère rester intéressé par les résultats, même si je reste convaincu que mes petites expériences du passé sur le sujet restent d'actualité.
Encore une fois, je persiste à croire qu'il n'y a absolument pas d'avantage au code respectueux des standards pour le référencement.
Cependant, il existe une déformation du même respect des standards au profit du référencement. L'exemple le plus flagrant concerne les Hx et ALT.
Je me souviens même d'un coup de gueule par Raphaël en 2004
http://blog.alsacreations.com/2004/05/2 ... our-google
 
WRInaute passionné
Oui tout à fait. Pour Marie Aude, je pense que le test va être perturbé par la position des liens sur ce topic.
Sur le 1er il y aura plus de clic que sur le second.
A partir de cela, des données seront traitées par la google toolbar et ca peut à mon avis biaiser le résultat.
Enfin ce n'est que mon avis.
 
WRInaute passionné
Le_Phasme a dit:
A partir de cela, des données seront traitées par la google toolbar et ca peut à mon avis biaiser le résultat.

Je le pense aussi, mais dans quel délai ? Je ne suis pas sûr que ces données soient traitées en temps réel, c'est pour ça que je disais qu'une fin de test en septembre me paraît courte, il aurait fallu au moins six ou neuf mois.

On va bien avoir un résultat pour ce test, puisque forcément une page sera positionnée plus haut que l'autre, mais mon petit doigt me dit que les interprétations vont prêter à débat 8)
 
WRInaute discret
Bonjour à tous, je reviens de vacances et j'ai le malheur de constater que ce topic à presque tourné au pugilat ... c'est désolant.

Tout le monde s'est attaché à démonter mon test, mais sans jamais proposer de solution.
Même si il y a des défauts, l'expérience reste intéressante : imaginons qu'il y ait au final un gros écart de positionnement entre les deux pages. Il y aurait de quoi débattre.

Le premier prix dans la série "je connais l'algo Google" est attribué à rudddy pour sa splendide vérité générale énoncée quelques posts plus haut, sans explications ni citation de sources.

rudddy a dit:
GG connait parfaitement les balises html (ou autres) et les retire de la page avant de calculer la densité, et donc aussi avant de mettre en avant les 300 caractères le cas échéant

Merci de rester constructif.


PS : Malgré 10 jours de présence, aucune des deux pages, n'est indexée. Faudra t'il multiplier les BL ?
 
WRInaute impliqué
je ne suis pas sur que ton test revele quelque chose

si j'ai bien compris:

tu fais deux pages identique pour nos petits yeux mais avec une semantique differente...

:arrow: duplicate content, maudit filtre !
 
WRInaute discret
webmasterdemonsite a dit:
je ne suis pas sur que ton test revele quelque chose

si j'ai bien compris:

tu fais deux pages identique pour nos petits yeux mais avec une semantique differente...

:arrow: duplicate content, maudit filtre !

T'as même pas pris la peine de comparer les deux pages ... ni de lire mon post :

RavN a dit:
Pour cela, j'ai créé deux pages que j'ai remplies de contenu quasi-similaire, en changeant la tournure des phrases pour éviter le duplicate content.
 
WRInaute impliqué
RavN a dit:
T'as même pas pris la peine de comparer les deux pages ... ni de lire mon post :

Pour cela, j'ai créé deux pages que j'ai remplies de contenu quasi-similaire, en changeant la tournure des phrases pour éviter le duplicate content.

si

mais comment savoir quand google determine si c'est du duplicate ou non...?
 
WRInaute discret
Je fais remonter ce post car le test est désormais suffisamment ancien pour qu'on puisse s'intéresser à ses résultats.

J'ai eu un peu de difficulté à trouver une requête me permettant de voir les deux pages classées (sans devoir examiner 2000 résultats ! :) )

J'obtiens quelque chose en recherchant "Al1mentation col1br1 Nectars sèves 1nsectes petits o1seaux poll1n1sation cro1sée" (en remplaçant les 1 par des i). Ces termes sont tous présents sur les 2 pages.

A la date d'aujourd'hui, et sur mon DC, je voie le "seo-test-code-sale" en 18° position et le "seo-test-code-propre" en 21° position.

Les 2 résultats sont donc extrêmement proches et la méthode utilisée a permis d'éviter le Duplicate Content.

La méthodologie est évidemment discutable (comme toute méthodologie, d'ailleurs) mais je trouve quand même que ce test présente un intérêt.

Merci Lio7.
 
WRInaute passionné
zapman a dit:
J'ai eu un peu de difficulté à trouver une requête me permettant de voir les deux pages classées (sans devoir examiner 2000 résultats ! :) )

Pourtant, hein : https://www.google.fr/search?hl=fr&q=%22alimentation+des+colibris%22&bt ... cher&meta=

Je conclus qu'un code propre est nocif au bon positionnement des pages dans les Serps, tandis qu'un code sale les favorise.

Non ? :lol:

Edit : et en plus, si j'en crois Siteexplorer, l'initiateur du test a plus linké la page au code propre que celle au code sale. 8)
 
WRInaute passionné
ayant fait une étude sur le fonctionnement des moteurs de recherche il y a quelques mois, et d'après plusieurs sources : un moteur ne peut pas tenir compte d'une tel ou tel norme de code (HTML, xhtml, "trash"HTML) pour positionner un site, ou alors ca serait un critaire négligeable par rapport à tout le reste.

pourquoi ? plusieurs raisons parmis lesquelles je cite :
- Comme dit plus haut, le moteur retire d'abord toutes les balises html avant l'analyse de densité, l'analyseur voit alors une page texte (ou presque), c'est la phase d'épuration.
- Valider le code revient à parser l'HTML, et un parseur/valideur HTML mettrait plus de temps à analyser une page, ce qui pourrait être pénalisant pour le moteur pour finalement pas grand chose (un algo pour retirer les balises et beaucoup beaucoup plus rapide qu'un algo de parsing/validation)
- Les normes W3C ne sont là pour donner une sorte de "bonne pratique" lors de la réalisation d'un site, et n'ont pas pour but de favoriser le positionnement d'un site ! c'est comme si ont disait qu'un document OpenOffice serait mieux référencé qu'un document word 2003 ! ca n'a pas de sens pour un moteur.
- Les nomes W3C ne sont même pas respectés par les navigateurs, certains navigateurs affichent mieux un site pas très aux normes qu'un site en full XHTML (je ne citerais pas de nom pour que personne ne soit vexé ;) ) , et il ne faut pas oublier qu'un moteur de recherche et un outil destiné à un utilisateur lambda (non geek en général) avant tout, qui ne sait pas faire la différence entre du XHTML et du trash-html ...


bref, tout ce blabla pour dire, que le plus important c'est le CONTENU, une bonne structure peut AIDER, mais ne remplacera jamais du bon contenu.


-
 
WRInaute discret
Personellement, je me souviens d'une interview d'un responsable qualité Google, qui disait que si le moteur avantage les codes propres plus de 90% des sites sur la toile serait pénalisé par rapport aux sites avec le code propre. De plus c'est Google n'arrete pas de dire qu'il faut faire des sites pour l'internaute, à votre avis combien d'internaute regarde le code ?

Dans ce cas la Google se contredirait, mais bon en même temps averc toute la désinformation que Google semble orchestré pour garder un index propre on peut facilement considerer qu'il ne faut pas prendre au pieds de la lettre toutes les recommandations de Google.
 
WRInaute impliqué
aladdin a dit:
ayant fait une étude sur le fonctionnement des moteurs de recherche il y a quelques mois, et d'après plusieurs sources : un moteur ne peut pas tenir compte d'une tel ou tel norme de code (HTML, xhtml, "trash"HTML) pour positionner un site, ou alors ca serait un critaire négligeable par rapport à tout le reste.

super interessante ta reflexion ! merci ! t'as du passer pas mal de temps a tester ca...

sinon, regardez les sites en top position sur votre requete et regardez si ils sont valid or not :lol:
 
Nouveau WRInaute
L'intérêt de faire un balisage sémantique sert surtout pour ma part à la mise en page CSS.
A lieu de faire une multitude de classes, il est de cette façon possible d'utiliser des combinaisons de balise dans les sélecteurs CSS.

Concernant la question du référencement, je pense qu'il y a peu d'impact. On trouve souvent des sites TRES bien positionné
avec un balisage à la sémantique pauvre et invalide W3C !
 
WRInaute discret
Comme dit plus haut, l'intérêt d'être valide est avant tout pour le visiteur, si c'est juste pour Google c'est inutile (pour l'instant). Chaque chose a sa place.
 
Discussions similaires
Haut