Le poid des pages et le W3C

Nouveau WRInaute
Je suis en train de refaire le skin de mon site et je me demandais si le poid des pages pouvait jouer sur le référencement? Qu'en est il du w3C? un site à la norme est il plus "optimisé" pour le référencement?

Merci d'avance
 
WRInaute accro
un site qui pese moins pour le meme contenu signifie qu'il y a moins de code inutile dans une page. cela ne peut pas etre un mal ... qu'un site valide w3c ne signifie pas qu'il va etre mieux referencé, mais au moins il sera bien lu par les robots, c est déjà ca.

c est une question bizarre : tu demandes si de mieux faire le travail est bien. la réponse est évidente :)
 
WRInaute impliqué
De toute façon, le fait d'utiliser des <div> avec une feuille CSS te permettra non seulement d'alléger la page et de rendre le code plus clair, mais aussi d'afficher ton contenu dans l'ordre que tu veux (ou presque). C'est ensuite le CSS qui indique au navigateur comment organiser les <div>.

Pour le référencement, c'est utile: ça te permet de mettre les menus, tout ce qui est commun à toutes les pages en fin de code...

Le contenu est donc directement accessible dès le haut du code, je pense que ça aidera aussi les robots...
 
Nouveau WRInaute
Moi je dis que le poids des pages, n'influe pas sur le ref.

Comme l'a dit e-kiwi par contre le poids du code est important, un poids léger, veux dire que ton code est assez limiter.

Par contre moi je pense que le fait que les pages soit w3c joue un poil. Le robot vient croller en mode texte, genre lynx, des pages w3c sont parfaite à la lecture, il n'y a pas de code pourri qui vient gêné la lecture d'une occurrence.

Je ne sais pas si j'ai été très clair! Mais je pense que ça joue.
 
WRInaute accro
le fait de valider n'influ pas pour moi.

prenons un exemple de site défini en xhtml, il ne valide pas, mais si il etait validé en html 4.1, il validerai, donc cela veut dire que google sait le lire impeccablement, vu qu'il est correct syntaxiquement en html 4.1. sauf qu'en xhtml, il valide pas. à coté prennons un site qui valide xtml 1.0, je suis pas sur qu'il soit mieux lisible qu'un site xhtml qui ne valide pas. pour moi, si un robot est cappable de parcourir 100% des liens et lire 100% des textes, c est plus important que le fait qu'il soit validé par le w3c
 
Nouveau WRInaute
Umm ca se tiens

mais je reste persuadais que google , favorise un poil ou prend en compte la validation.

Enfin on serra jamais
 
WRInaute accro
Désolé, je suis de l'ancienne école, le bon codage, le w3c pour moi c'est nouveau d'y faire attention. Le site du profil a été fait par frontpage (houuuu, j'en entends qui rigolent et qui hurlent) et donc mauvais code, mais ça fonctionne parfaitement et je peux te dire Foz que Google ne me défavorise pas du tout... ;)
 
WRInaute discret
e-kiwi a dit:
qu'un site valide w3c ne signifie pas qu'il va etre mieux referencé, mais au moins il sera bien lu par les robots, c est déjà ca.

Bonjour,

tu veux dire que les robots lisent "mal" une page faite avec des tableaux?
dans ce cas, quelles sont les conséquences pour mon site (celui du profil par ex.)

je commence seulement à structurer un site en CSS et je galère :? . je voudrais éviter de refaire toutes les pages du site en question...
 
WRInaute accro
si cela peut te rassurer, beaucoups de sites fais en tableaux occupent les premieres pages des recherches google :)
 
WRInaute discret
on peut dire que c'est une demie bonne nouvelle car je pense que tot ou tard Gloulou se mettra à prendre en compte plus sérieusement la "bonne" construction d'un site.

allons courage! j'en aurai bien besoin ;)
 
Nouveau WRInaute
Merci pour ces réponses, en gros c'est plus un bon point pour les utilisateurs que pour les moteurs de recherche. On se consolera en disant que le temps gagné par google lors de la lecture d'une bonne page lui permettra d'en indexer plus :p
 
WRInaute passionné
Les robots de recherche sont "tout terrain" (jusqu'à un certain point bien sur), il se foutent un peu de la validation w3c tant que ca ressemble à du html. Mais un site valide est au moins sûr d'etre lisible.
 
WRInaute passionné
Bonjour,

e-kiwi a dit:
qu'un site valide w3c ne signifie pas qu'il va etre mieux referencé, mais au moins il sera bien lu par les robots, c est déjà ca.
Oui mais non... :wink:

En réalité, le fait que le code d'une page soit valide ne signifie qu'une seule chose : il respecte la syntaxe du doctype choisi, ni plus, ni moins.
Une page peut être beaucoup trop lourde ou n'avoir aucun sens même si son code est valide.

Ce qui est important c'est de bien structurer le contenu de la page en utilisant le minimum de balises nécessaires et adéquates, de respecter la sémantique du contenu... tout en respectant la syntaxe du doctype choisi, bien-sûr.
L'utilisation du validateur devrait donc être une des démarches indispensables d'un webmaster (y compris en cours de travail), mais elle ne suffit pas pour s'assurer de la qualité d'une page.

Quant à l'impact sur le référencement... bonne question à laquelle, je pense, personne n'a de réponse absolue.
Il est tout à fait logique de penser qu'une page légère, bien structurée, sans erreurs de syntaxe... soit lue plus facilement et plus rapidement par un robot.
Comme une telle page donne le maximum de garantie quant à son interopérabilité et à sa pérennité, qu'elle sera aussi (et surtout) tout bénéfice pour le visiteur, le choix de la méthode de travail me semble évident 8)

Amicalement,
Monique
 
Nouveau WRInaute
Salut

Je suis sur le web depuis 1985 ou 86, et franchement, ce type de post m'a toujours fait délirer.

Il faut savoir que le xhtml est souvent mal interpreté par internet explorer, et à l'origine, certaines anti windows avaient eux l'idée de l'utiliser pour forcer les gens à utliser autres choses qu'internet explorer.
Enfin, pour répondre à ta question, plus le code est leger, mieux c'est.
D'ailleurs, certains robots, il y a quelques temps, ne référencaient que les 200 premiers caractères, il doit encore en avoir qui sont limité, ensuite, il y a eut une limite de 20ko par page, comme google par exemple, je connais pas le poids exacte actuellement, mais il suffirait de faire des tests.

Sinon, j'ai entendu parlé d'une limite de 40ko par page, au dela, tu descends dans les pages google.
Je sais plus d'ou sort ce chiffre, sa date de 2 ou 3 ans, je sais meme plus si c'est pas moi qui avait trouvé ca sur une des pages de google, ou alors une personne qui me l'avait montré.

Mais bon, quoi qu'il en soit, c'est le poids du code qui rentre en compte, et pas le poids des images (ou cas ou)

Sinon, pour le fameux validator, apparament certaines erreurs ont été corrigé, mais il y en a encore, d'ailleurs, voici un message d'avertissement que l'on peut retrouver

Code:
	Older W3C CSS validators return errors when the voice-family property
	is used in a 'screen' style sheet. This is an error in the W3C CSS
	validator itself. The validator should report a warning, not an error,
	when properties which are unsupported by a particular medium are used,
	and this has been reported to the W3C

Enfin bon, c'est tout de meme marrant.

Sinon, les tableaux sont aussi bien référencés que les div, voir mieux, en faites c'est une raison "commerciale" si on peut dire, il y a 60% d'utilisateurs internet explorer, donc si c'est 60% devaient arriver sur des pages qui ne s'affichent pas correctement à chaque fois, ils changeraient de moteur de recherche tres vite.

Par contre, quand microsoft décidera de rendre compatible à 100% leur navigateur avec le xhtml, il risque d'avoir de gros changement dans l'affichage des liens sur google.

Pour mon avis perso, un site doit etre accessible à tout le monde, sans aucune discrimination, aussi bien pour les voyant que pour les aveugles, et sa, avec la gueguerres microsoft vs anti microsoft, les aveugles ont de gros probleme à lire les pages dans de bonnes conditions !
A bonne entendeurs.
 
WRInaute passionné
Par contre, quand microsoft décidera de rendre compatible à 100% leur navigateur avec le xhtml, il risque d'avoir de gros changement dans l'affichage des liens sur google.

Affirmation totalement fantaisiste :roll: le rendu dans un navigateur n'a aucun lien avec la pertinence du contenu

Et la limite d'indexation de Google était pendant longtemps de 101 ko, limite qui semble avoir sauté aujourd'hui
 
WRInaute accro
comme c'est bien dit Monique ;)
pour le moment le moteurs se moquent que le site soit fait en tableau ou en div, de meme qu'il n'a pas de préférence pour html ou php, si c'est lisible c'est ok.
L'énorme avantage de la css, c'est le poids des pages qui est allégé, et donc la rapidité pour l'affichage.
A l'avenir, pour les nouveaux sites, cela fait partie des bons conseils à suivre donnés par les pros : une css.
Et se sera sûrement un gage de qualité de site.
Quant au W3c, je surfe avec Firefox et le pluggin Tiddy, et jamais je ne vois de site sans avertissement (ou erreurs), le simple fait de mettre des adsenses fait 69 avertissements par ensembles d'annonces. Google serait bien sévère de sanctionner les erreurs qu'il crée lui-même...
 
Discussions similaires
Haut