Réel intéret du XHTML et de la sémantique ?

WRInaute passionné
Bonjour, je suis entrain de préparer une nouvelle version d'un de mes sites, et j'ai tout fait en XHTML 1.0 strict valid & compatible mozilla & sématique plutot respecté dans l'ensemble, cela va t'il changer quelque chose ? comment google va réagir ?
 
WRInaute impliqué
Juste mes 2 cents : le réel intérêt du XHTML et de la sémantique ne se situe pas vraiment au niveau du référencement je pense, bien que Google ne peut qu'apprécier un code "propre et bien conçu".
 
WRInaute impliqué
Le xhtml et la sémantique permettent de fortement réduire le poids des pages, d'accelerer leur chargement, d'avoir un site accessibles aux handicapés et naviguateurs texte. Celles-ci sont plus facilement parcourues par les robots et les visiteurs donc.
 
WRInaute passionné
Phobos a dit:
Le xhtml et la sémantique permettent de fortement réduire le poids des pages, d'accelerer leur chargement, d'avoir un site accessibles aux handicapés et naviguateurs texte. Celles-ci sont plus facilement parcourues par les robots et les visiteurs donc.

et encore... le xhtml permet surtout une compatibilité maximum et une standardisation (enfin !) du code des pages afin que les navigateurs puissent se baser sur quelque chose... tout en gardant chacun leurs spécificités.

Un bon code permettra par ailleurs au moteur de mieux capter la sémantique et l'importance des informations données.
 
WRInaute discret
l'intérêt d'écrire un code source xhtml valide c'est l'intéropérabilité
Internet est un réseau de machines très différentes, le but des normes (enfin, recommendations plutôt) est de faire en sorte que le contenu soit accessible, peu importe la plateforme (ou les conditions d'accès au contenu, que l'on soit aveugle, atteint de la maladie de Parkinson, daltonien...)

la sémantique est encore loin de ce qu'elle pourra être sur le web d'ici quelques années, un lien intéressant : http://websemantique.org/PagePrincipale
 
WRInaute passionné
Les moteurs de recherche tendent de plus en plus à une analyse "sémantique" de la page. Donc si ton contenu est correctement décrit, ce ne pourra qu'être bénéfique pour toi.

Et comme dit au dessus, le simple fait que le site devienne accessible à un plus grand nombre de personnes devrait suffir à te convaincre ;)
 
WRInaute accro
Tu peux lire mon article là dessus
http://booster1site.en1heure.com/xhtml_introduction.php

En fait un bot se comporte comme un logiciel d'accessibilité mais avec quelques commandes spécifiques, sinon c'est pareil, alors un bon code bien sémantique, donc logique, ne peut qu'être mieux compris.

D'après toi pourquoi GG raffole des H1 et des liens ? Par pure logique sémantique.
 
WRInaute passionné
Re: Reel interet du XHTML et de la sémamtique ?

XoSt a dit:
Bonjour, je suis entrain de préparer une nouvelle version d'un de mes sites, et j'ai tout fait en XHTML 1.0 strict valid & compatible mozilla & sématique plutot respecté dans l'ensemble, cela va t'il changer quelque chose ? comment google va réagir ?

La bonne conformité d'un code permet une meilleure accessibilté aux utilisateurs.

Mais rien n'empèchera un jour les moteur de prendre sérieusement en compte ce paramètre afin de donner un bonus aux site ayant "bon contenu et bon contenant"
 
WRInaute passionné
En tout cas c'est en fait beaucoup plus simple que de faire des td et des tr partout pour mettre un menu, la ca prend quelques div et quelques ul/li.
 
WRInaute passionné
wap a dit:
Juste mes 2 cents : le réel intérêt du XHTML et de la sémantique ne se situe pas vraiment au niveau du référencement je pense, bien que Google ne peut qu'apprécier un code "propre et bien conçu".

Bonjour,

Cela est vrai actuellement... mais il est inutile de rappeler que les critères des moteurs de recherche évoluent :wink:
La sémantique, les métadonnées (Dublin Core)... sont des pistes au goût du jour.
Nul ne sait quand ces critères seront pris en compte (ils le sont déjà par certains scripts de moteurs internes).
Alors autant que les pages soient prêtes dès maintenant d'autant plus que les avantages en terme d'interopérabilité, d'accessibilité, de maintenance... sont évidents.

Amicalement,
Monique
en campagne pour des sites conformes aux standards et accessibles...
 
WRInaute discret
La vrai question je pense est : "quelles sont les désavantages d'avoir un site accessible et conforme aux standards ?" :wink:

Mais question referencement, ca serait que justice si google et ses petits frères prenait en compte ce critère de plus.
 
WRInaute passionné
benjiiim a dit:
La vrai question je pense est : "quelles sont les désavantages d'avoir un site accessible et conforme aux standards ?" :wink:

Mais question referencement, ca serait que justice si google et ses petits frères prenait en compte ce critère de plus.


Avant le newb prenais frontpage et pondait un site en 1 heure, maintenant, c'est fini s'il veut un site carré.
Il aura quelques heures de recherche et d'apprentissage.
 
WRInaute discret
C bien que n'importe qui puisse faire son site en 1 heure, je suis sure que ca fait plein d'heureux !
Mais c'est pour cela que les vrais sites qui on été particulièrment bien travaillé doivent être avantagé dans les résultats !
 
WRInaute accro
Je pense que les noob continuerons avec FrontPage, respecter les standards représente une contrainte pour la majorité des créateurs..
 
WRInaute impliqué
Je pense même qu'il n'y aura pas que les newbies pour continuer à utiliser des éditeurs qui se moquent de l'accessibilité et du respect des standards en général... Quand on voit le nombre de soit-disants "professionnels" qui ne mettent même pas de doctype sur les sites de leurs clients ni sur leurs propres sites, on se dit que la route est encore longue.

Et de toute manière, je pense qu'il y aura toujours des sites de qualité et des sites très bof... C'est une question de compétences et surtout de temps à consacrer à sa formation et à son information.
 
WRInaute discret
wap a dit:
Et de toute manière, je pense qu'il y aura toujours des sites de qualité et des sites très bof...

Un bon site c'est pour beaucoup d'utilisateurs un site où l'on trouve l'info que l'on cherche et ce le plus rapidement possible, pour un ado de 15 ans fondu de techno, de rapp et de jeux vidéo c'est tout autre chose. Et la liste d'exemples pourrait être longue.
Si le site correspond aux attentes de ceux pour qui il a été créé....et cela devrait être l'objectif de tout site...comme de tout produit commercial.....atteindre sa cible, cela élimine déjà un paquet de "mauvais sites". Mais alors, c'est quoi un bon site et un mauvais site ? Que celui ou celle qui ne s'est pas posé la question au sujet de son propre site lève le doigt!
 
WRInaute accro
Ok mais on ne peut pas faire un bon site mal codé
En codant mal, proprio on écarte une partie de sa clientelle et on fait du net un réseau d'échange M$

Les sois disant pro qui créent des sites invalides ne savent pas à quoi servent les standards, sinon ils les utiliseraient tout de suite, ça apporte tellement d'avantages.

Tu veux un exemple ? -http://www.virginmega.fr/ (tiret pour ne pas donner de PR)
Génial je suis sur Linux alors on me dit gentillement d'aller voir ailleur...
 
WRInaute discret
je suis persuadé qu'il y aura de plus en plus de sites bien faits, valide et accessibles
je suis persuadé aussi que m$ améliorera ses outils dans l'avenir (IE et Frontpage)
on aura déjà une indication avec la prochaine version d'IE (qui devrait sortir dans les 10 prochaines années :/)
et Frontpage devra de toutes façons faire des progrès où alors m$ le laissera tomber (Dreamweaver qui est quand même un gros concurrent à fait des efforts dans ce sens, pour des raisons concurrentielles je suppose qu'à Redmon on va s'activer
 
WRInaute accro
Exemples
Lycos.fr, le site commercial par excellence, bien présenté.
http://validator.w3.org/check?verbose=1 ... .lycos.fr/
434 erreurs au validateur XHTML

http://www.acces-pour-tous.net/validate ... =Soumettre
Totalement innaccessible aux handicapés

http://jigsaw.w3.org/css-validator/vali ... medium=all
4 erreurs de CSS (faut le faire !)

http://www.websiteoptimization.com/serv ... .lycos.fr/
144 requêtes HTTP
30 secondes de chargement par pages sur un 56k (300 ko la page !)

Nan mais faut arrêter le délire.
 
WRInaute discret
y04n a dit:
je suis persuadé qu'il y aura de plus en plus de sites bien faits, valide et accessibles
La guerre des standard$ est aussi une affaire de gros sou$. Je suis pour l'accessibilité, le respect des utilisateurs et tout ce qui vous va dans le sens d'un web de "qualité" (terme à prendre avec des pincettes). Mais je pense qu'il ne faut pas tout mélanger non plus, quand j'entends dire que IE est une âne baté, mauvais et tout la tutti, je trouve cela limite ridicule et surtout, pas crédible. Par ailleurs, il n'y a pas si longtemps que ça, un site était montré du doigt s'il ne tenait pas compte de l'affichage dans les anciens navigateurs, les webmasters étaient taxés d'irrespectueux, d'incompétents : "mais comment, vous prenez le risque de faire perdre à vos clients 10% de visiteurs, donc d'acheteurs potentiels". Maintenant le discours à radicalement basculé à l'opposé, à croire que les 90 % qui utilisent IE n'intéressetaient plus personne et sont aussi des anes batés? Je caricature évidemment.
 
WRInaute discret
marsupilami a dit:
y04n a dit:
je suis persuadé qu'il y aura de plus en plus de sites bien faits, valide et accessibles
La guerre des standard$ est aussi une affaire de gros sou$. Je suis pour l'accessibilité, le respect des utilisateurs et tout ce qui vous va dans le sens d'un web de "qualité" (terme à prendre avec des pincettes). Mais je pense qu'il ne faut pas tout mélanger non plus, quand j'entends dire que IE est une âne baté, mauvais et tout la tutti, je trouve cela limite ridicule et surtout, pas crédible. Par ailleurs, il n'y a pas si longtemps que ça, un site était montré du doigt s'il ne tenait pas compte de l'affichage dans les anciens navigateurs, les webmasters étaient taxés d'irrespectueux, d'incompétents : "mais comment, vous prenez le risque de faire perdre à vos clients 10% de visiteurs, donc d'acheteurs potentiels". Maintenant le discours à radicalement basculé à l'opposé, à croire que les 90 % qui utilisent IE n'intéressetaient plus personne et sont aussi des anes batés? Je caricature évidemment.

je n'ai rien compris
 
WRInaute impliqué
marsupilami a dit:
Mais alors, c'est quoi un bon site et un mauvais site ?
Pour préciser ce que j'entendais quand j'écrivais
Et de toute manière, je pense qu'il y aura toujours des sites de qualité et des sites très bof...
je voulais bien entendu parler de la qualité de codage puisque le thème de la discussion est le XHTML et la sémantique... Je ne parlais pas du tout du contenu.
 
WRInaute passionné
Finalement le xhtml en 1 ou 2 jours c'est tout bon, puis pour modifier le design entier du site, suffit de changer un seul fichier... chose très utile.
 
WRInaute accro
Ecarter IE est aussi stupide que de coder proprio...
Cette discussion sert à ceux qui se posent encore la question.
 
WRInaute discret
wap a dit:
je voulais bien entendu parler de la qualité de codage puisque le thème de la discussion est le XHTML et la sémantique... Je ne parlais pas du tout du contenu.

Alors pour parler sémantique, lé sémantique tic tic des balises :
http://www.semanticworld.org
http://www.xmlfr.org
Comme quoi... la normalisation on peut en parler...et ce ne sont pas toujours ceux qui en parlent le plus qui font le "mieux". Travaillons sereinement, positivons, et ne cherchons pas sans arrêt des pouX dans la soupe à la balise.
 
Discussions similaires
Haut