une ptite question DOCTYPE

WRInaute discret
Bonjour a tous, je suis tout frais inscrit, meme si ca fait quelques semaines que je consulte regulieremen ce site.

Voila j'ai entendu une rumeur comme quoi bientot
les moteurs de recherche pourrait integrer un validateur w3c pour augmneter le PR des pages....

bon c juste une question comme ca, mais j'voudrais votre avis, est ce faisable, utile, insensé...

bon a+ et encore bravo aux concepteurs de ce site, et a ceux qui participent activement ici , y a des supers sujets qui m'ont permis de bien referencer mon site
 
WRInaute impliqué
Bonjour Kirik, et bienvenue sur ce forum.

Qu'appelles-tu un validateur W3C? S'il s'agit d'un programme permettant de vérifier la conformité des pages avec les normes du W3C, cela ne risque pas d'augmenter le PR des pages.

Que l'on puisse considérer cela comme un critère de classement supplémentaire : je trouve cela invraisemblable pour au moins trois bonnes raisons :
- le faible nombre de pages web qui respectent les normes W3C
- le fait que la pertinence des pages par rapport aux recherches est une question de contenu, pas de code des pages (et les sites en flash, alors, on en fait quoi ? Et les pdf, ils passent le test de validation ?)
- et le fonctionnement des robots, trop fruste pour avoir besoin de validateurs

Il est possible que demain, les spiders aient besoin, pour fonctionner, de pages 100% valides, mais aujourd'hui, c'est plutôt de la science fiction.

Remarque générale : le problème avec les rumeurs, c'est que plus personne n'en connait la source, donc personne ne peut juger de la véracité de l'information. En l'occurrence, la meilleure chose à faire lorsque l'on entend parler de rumeurs, c'est de les ignorer, purement et simplement.
 
WRInaute discret
bon, merci pour la réponse

désolé pour la rumeur, je sais bien que c'est complétement invraisemblable pour toutes les raisons que tu as cité.
 
WRInaute occasionnel
cariboo a dit:
l est possible que demain, les spiders aient besoin, pour fonctionner, de pages 100% valides, mais aujourd'hui, c'est plutôt de la science fiction.
Effectivement c'est impossible, trop peu de pages sont valides. Par contre ce qui serait intéressant c'est que les moteurs traitent le code des pages pour afficher les pages de résultats en fonction du navigateur de l'internaute, par exemple :
- Avec un navigateur ancien une page qui n'aurait pas de ALT pourrait être déclassée...
- Si pas de plugin-flash détecté, une page qui contient essentiellement du flash pourrait subir le meme sort
- etc..

En fait il s'agirait d'afficher uniquement du contenu visualisable par le visiteur, mais de préférence sans imposer ce choix a l'utilisateur (mais un filtre utilisable en option).. Hey Googleguy si tu passes par ici, note ca sur ton carnet. ;)

Fred
 
WRInaute impliqué
iconso>Je trouve ton idée de filtre spécialisé excellente... Les options proposées par les moteurs sont souvent pauvres dans ce domaine !

Ce qui m'amène à m'interroger sur les raisons pour lequelles rien de sérieux n'a déjà été fait dans ce domaine. Problème de faisabililité ? Ou mauvais ratio intérêt/coût ? Avantage concurrentiel trop faible ?
 
WRInaute occasionnel
La faisabilité je ne pense pas que cela pose problème. C'est plus une notion de ROI qui, si on y réfléchit bien, n'est pas forcément très prometteur. Ca serait intéressant pour ceux qui :
- utilisent des navigateurs anciens
- n'ont pas certains plugins

Google a déjà par exemple eliminé le pb de ceux qui n'ont pas de quoi lire des documents PostScript, Word ou Acrobat, en proposant la conversion de ces documents en HTML. Les utilisateurs concernés par un tel filtre ne devraient donc pas peser bien lourd en nombre.. mais ca pourrait rendre service de temps en temps.

Fred
 
WRInaute accro
C'est insencé cette idée de trier les résultats en fonction du navigateur et même completement absurde.

L'internaute qui utilise un moteur de recherche demande d'avoir un résultat PERTINENT par rapport à sa recherche.

Je répond à ce post en utilisant un vieux netscape 4.5. Si un tel système était mis en place je n'aurai jamais découvert ce site par google et je tomberais avec mes recherches seulement sur des sites qui sont vouvent obsolètes depuis 2 ans.

Les gens ne feraient plus de sites en flash afin de sortir en tête quelque soit le navigateur. Ou bien tout le monde ferait des sites optimisés pour internet explorer et dépendant de internet explorer car c'est le navigateur le plus utilisé. Et plus aucun site ne serait compatible html mais simplement compatibles microsoft.

De même, tous les internautes utiliseraient donc le même navigateur car ils remarqueraient vite qu'avec un certain navigateur ils trouvent des sites qui correspondent mieux à ce qu'ils cherchent.

Et ceux qui utilisent un mac ? on leur proposerait seulement des sites optimisés mac en première page.

Enfin c'est quoi ce délire ?

On en viendrait à une belle uniformité.

C'est quand même à l'utilisateur de faire des choix parmi les meilleurs choix possibles que le moteur lui propose et non au moteur de choisir à sa place.

Je n'utilise plus Ie car j'ai horreur que IE me redirige sur la page de recherche de msn de temps à autre quand je tappe une url qu'il ne trouve pas.

Un utilisateur de google qui s'insurge contre de telles idées
 
WRInaute occasionnel
Avant de t'insurger et de traiter les idées des gens d'absurdes, il faudrait peut etre lire (et comprendre) les messages.
On parle ici de problème de compatibilité majeurs, pas de défauts d'interprétation mineurs. NN4 a ses défauts mais tu peux quand meme naviguer sur la plupart des sites et visualiser leur contenu, avec souvent des défauts d'interprétation (notamment CSS). Par exemple si tu prends le site dans mon profil, tu l'auras dans une version extremement dégradée avec ton NN4 (sans aucun design) parce qu'il utilise CSS2. Cela ne t'empeche pas d'accéder a l'information.

Par contre si tu n'avais pas le plugin Flash, je pense que tu pourrais trouver ca utile de ne pas tomber sur des sites proposés uniquement en flash (puisque dans ce cas tu ne pourrais lire AUCUN contenu). Sur des serveurs il est fréquent d'utiliser des navigateurs de type LYNX (100% texte), et la par contre c'est chiant de tomber sur des pages inexploitables.

Et pour finir, j'ai évoqué cette fonctionnalité en tant qu'une OPTION. Je suis partisan de toujours laisser un maximum de choix à l'utilisateur.

Fred
 
WRInaute accro
Oui, en option, ça passe encore. Mais pas l'option par défaut en tous cas.
Les options de google qui permettent de visualiser une page pdf en html sont très bien.
Le risque est quand même que les sites soient construits en fonction de cette option afin d'être mieux référencés. Ca serait dans ce cas une dérive de l'idée qui semble bonne en effet dans certains cas particuliers, mais seulement particuliers.
 
WRInaute discret
kan on voit comment google traite les non IE PC avec sa googlebar, je doute ke l'on voit fleurir un jour ces solutions
dommage monsieur google

pour ce ki est de la validité des pages, on en voit de plus en plus je trouve
prenez pour exemple les grand site genre macromedia, lycos ... ki sont passé a la mise en page css

je voit de plus en plus de site en XHTML valide, et c'est avec grand plaisir

il est dommage ke les sites 'valide' ou du moins bien codé n'ai pas un petit bonus
cela permettrait de faire prendre conscience au gens (et au webagency) d'arreter de faire des sites de merde

que google donne un leger bonus au site bien codé serait la meilleure chose ki puisse arriver au web
 
Discussions similaires
Haut