Nouveaux critères de positionnement ???

Discussion dans 'Référencement Google' créé par mia_mi, 29 Juin 2006.

  1. mia_mi
    mia_mi WRInaute discret
    Inscrit:
    25 Novembre 2005
    Messages:
    75
    J'aime reçus:
    0
    Il semblerait que les résultats de Big Daddy se propagent sur tous les DC. 2 sites dont je m'occupe sont passés de N°1 à N°2 (PR5) et de N°1 à N°3 (PR6). Je me demandais du coup dans quel sens ont évolué les critères ???

    1. Il semblerait que le nombre d'occurrences (ou la densité) pour la requête cible ait plus de poids qu'avant. (même un site contenant 92 fois le mot piscine n'est pas blacklisté en tout cas, mais n'est pas non plus 1er)
    2. Je me demandais si la densité du mot clé cible dans les liens sortants avait un importance ?
    3. la présence du mot clé dans les textes d'ancrage semble également avoir diminué d'importance (à cause du google bombing ???)
    4. Est ce que les pourcentage de liens externes par rapport au nombre de liens internes a une importance ?

    Si vous avez des idées ... n'hésitez pas, pour l'instant j'ai augmenté le nb d'occurence des mots clés cibles, je ne sais pas trop si ça va servir à quelque chose.

    ++
    Mia
     
  2. blman
    blman WRInaute accro
    Inscrit:
    5 Septembre 2003
    Messages:
    2 719
    J'aime reçus:
    3
    Le critère "Trust" joue de plus en plus à mon avis. Après, je pense que personne ne peut définir à 100% les critères utilisés par Google qui lui permettent de penser si un site est de "confiance" ou non. On a déjà évoqué quelques idées ici, chacun a dû faire quelques tests dans son coin, mais c'est encore trop jeune pour définir des règles.
     
  3. Valneor
    Valneor WRInaute discret
    Inscrit:
    18 Avril 2006
    Messages:
    103
    J'aime reçus:
    0
    l'observation la plus importante que j'ai faite, c'est le danger de mettre une meme ancre dans ses échanges de liens, surtout si il s'agit d'un mot unique, et qui plus est concurentiel

    il faut varier à tout prix sinon : pénalisation. Ca n'était pas le cas avant et j'ai donc du passer beaucoup de temps à faire changer les liens : effectivement deux semaines après retour au positionnement initial

    ca rejoint d'ailleurs une observation faite plus haut concernant le google bombing
     
  4. mia_mi
    mia_mi WRInaute discret
    Inscrit:
    25 Novembre 2005
    Messages:
    75
    J'aime reçus:
    0
    Je suis d'accord sur le fait que des textes d'ancrage trop identiques sont pénalisants ! C'est pour cela que les liens en footer de toutes les pages d'un site dynamque peuvent faire très mal ! Mais c'est vrai que pour les deux sites concernés, différents ancrages ont été utilisés pour les échanges de liens. Ces derniers termps, ls échanges ont été développés pour avoir des liens vers les pages internes du site au détriment de la home page ...
    Je ne sais pas si c'est mieux :s
     
  5. Centreurope.org
    Centreurope.org WRInaute discret
    Inscrit:
    9 Janvier 2004
    Messages:
    197
    J'aime reçus:
    0
    authority sites

    bonjour,
    c'est chouette d'avoir un fil de haut niveau comme ça.
    Je gère une bonne centaine de sites et les changements qui ont eu lieu il y a 3 jours ont affecté un bon tiers d'entre eux. Y compris centreurope.org, qui est un "authority site" et que l'on trouve aujourd'hui à la 50e place pour la requête... centreurope.

    - Par rapport à l'observation de la gérance, je ne pense pas que le changement soit lié au fait de pointer avec le même texte. C'est effectivement nécessaire de varier le texte, mais ce n'est pas nouveau.

    - Plus généralement, je ne crois que les bouleversements qui ont eu lieu peuvent être uniquement liés à un changement de l'algo. Je pense que Google réduit son index "utile" progressivement en faisant sortir de manière aléatoire à chaque dance (ou autre nom, peu importe) des milliers de domaines de ses résultats.
    Le critère "trust" est effectivement le plus important et cela se confirme, mais même les authority site peuvent être délaissés (temporairement ?) par google. Voir par exemple ce mois-ci un des plus gros hébergeurs gratuits au monde, beep.com
     
  6. Valneor
    Valneor WRInaute discret
    Inscrit:
    18 Avril 2006
    Messages:
    103
    J'aime reçus:
    0
    Bonjour,

    Non ce n'est pas nouveau, mais c'est le degré de prise en compte de ce critère (anchor variées ou non) certainement pour mieux lutter contre le google bombing qui a changé.

    Par exemple, sur des requetes à plus de 50 millions de réponses, j'ai des sites qui étaient dans les 3 premiers qui ont été désindexés, et c'est arrivé à d'autres personnes le meme jour , meme importance de requete, le point commun qu'on a identifié était qu'on avait des bl en grand nombre (plus de 1000) avec la meme ancre.

    On a donc fait varié ces ancres et une à deux semaines après nos sites ont été réindexés et reviennent progressivement au meme positionnement

    Pour la question plus haut, avoir des bl vers des pages intérieures est excellent, il ne faut pas tout miser sur la home page, cela permettra aux robots d'indexer plus en profondeur votre site.
     
  7. blman
    blman WRInaute accro
    Inscrit:
    5 Septembre 2003
    Messages:
    2 719
    J'aime reçus:
    3
    En ce qui concerne les BL, voila quelques critères dont je suis quasiment sûr :
    - effectivement, varier les intitulés des BL est important
    - les BL provenant en grande partie d'annuaire semble être moins pris en compte (pas forcément pénalisant, mais ils ont moins de poids) (annuaire ou sites ayant une trop grande proportion de liens sortants)
    - Une trop grande proportion de BL pointant vers la home semble être pénalisant

    En tout cas, le critère "Trust" doit être en très grande partie basé sur l'analyse des BL entrants et sortants. Le fait que ces BL soient dans la même thématique semble aussi important mais là, je n'ais fait aucun test
     
  8. Centreurope.org
    Centreurope.org WRInaute discret
    Inscrit:
    9 Janvier 2004
    Messages:
    197
    J'aime reçus:
    0
    liens du même domaine

    pour compléter ton analyse blman,
    les liens provenant de la même thématique n'ont pas plus d'impact que les autres liens. On lit le contraire sur wri et même sur des forums de bon niveau, mais c'est un mythe...
    d'une manière générale, les liens entrants ont un impact très limité.
     
  9. dd32
    dd32 WRInaute accro
    Inscrit:
    9 Septembre 2005
    Messages:
    2 705
    J'aime reçus:
    0
    Sur quoi te bases-tu Centreurope stp ?
     
  10. Centreurope.org
    Centreurope.org WRInaute discret
    Inscrit:
    9 Janvier 2004
    Messages:
    197
    J'aime reçus:
    0
    sites

    une centaine de sites (tous sur des ip de classe c différentes), dont 5 authority sites (ou qui se sont comportés comme tels à un moment donné _ j'ai peur que l'on puisse "perdre" ce statut").
    je ne pense pas qu'il y ait beaucoup de personnes qui connaissent google comme moi sur wri (sans prétention), mais je n'interviens pas beaucoup car je n'aime pas du tout la mentalité générale sur ce forum.
     
  11. mia_mi
    mia_mi WRInaute discret
    Inscrit:
    25 Novembre 2005
    Messages:
    75
    J'aime reçus:
    0
    Pour toi quelle est la limite des liens entrants ? J'avais beaucoup bossé pour avoir des liens entrants avec des mots clés cibles et ça a très bien marché même si les mots clés n'étaient ni présents ni dans le titre, ni dans le corps de texte (du moins à la suite ...)
    C'est vrai que je trouve qu'avec les résultats sur Big Daddy 2 ça marche beaucoup moins bien ...

    Mais j'ai malgré tout essayé de varier les textes d'ancrages en faisant ancrage=mot1+mot2, ancrage=mot2+mot1 ou encore mot1+mot2+autres mots ...

    Le pb de ces sites c q les propriétaires ont fait une course au PR, en particulier celui qui a un PR6, c'est pour cela que je demandais si la thématique des liens sortants ou la densité du mot clé cible dans les liens sortants pouvaient avoir un impact ?
     
  12. Centreurope.org
    Centreurope.org WRInaute discret
    Inscrit:
    9 Janvier 2004
    Messages:
    197
    J'aime reçus:
    0
     
  13. Thierry Bugs
    Thierry Bugs WRInaute accro
    Inscrit:
    16 Juin 2004
    Messages:
    3 363
    J'aime reçus:
    1
    Re: authority sites

    je pense qu'il n'y a rien d'aléatoire dans l'algo de google,
    s'il y a désindexation de pages d'un domaine (pages inutiles, anciennes, jamais regardées...) il est quasi inévitable que le positionnement d'un site change puisque ses backlinks internes du coup diminuent elles aussi.

    Ta logique "d'index utile" est en accord avec ce qu'on pourrait attendre d'un "trustrank" : des sites à jour et vivant, des domaines stables (+ d'un an...)
    une progression constante mais raisonnée des liens et une fréquentation non hasardeuse (on cherche, on trouve, on reste visiter)
     
  14. Centreurope.org
    Centreurope.org WRInaute discret
    Inscrit:
    9 Janvier 2004
    Messages:
    197
    J'aime reçus:
    0
    Re: authority sites

    je pense qu'il n'y a rien d'aléatoire dans l'algo de google,
    s'il y a désindexation de pages d'un domaine (pages inutiles, anciennes, jamais regardées...) il est quasi inévitable que le positionnement d'un site change puisque ses backlinks internes du coup diminuent elles aussi.

    ------- ce n'est pas tout à fait aléatoire, tu as raison. Les sites institutionnels sont épargnés, mais une partie des "authority sites" qui ont de forts backlinks et sont actualisés régulièrement peuvent aussi à la trappe.

    Ta logique "d'index utile" est en accord avec ce qu'on pourrait attendre d'un "trustrank" : des sites à jour et vivant, des domaines stables (+ d'un an...)
    une progression constante mais raisonnée des liens et une fréquentation non hasardeuse (on cherche, on trouve, on reste visiter)[/quote]

    ----- j'ai lu l'article d'olivier sur le trustrank et j'ai été épaté à quel point il est bourré d'erreurs... Je ne vais pas rentrer dans les détails car je n'ai pas assez de temps mais la démarche de google est connue depuis longtemps. Scientifiquement (et je ne parle pas des soi-disant "articles de recherche" de WRI), les spécialistes des moteurs ont montré que l'on pouvait obtenir des résultats aussi bons en faisant les recherches sur une infime partie du web (principe un peu similaire à celui de la diversification en bourse pour ceux qui connaissent : avec une trentaine d'actions diversifiées, je suis l'indice sans avoir besoin d'acheter toutes les valeurs). Donc, depuis quelques années google fait progressivement son tri...


    ------- pour la fréquentation, je ne crois pas que google sache s'en servir, même si contrairement à l'époque de création de l'algo, ils peuvent aujourd'hui grâce à la google toolbar disposer de statistiques de fréquentation très précises. Mais le comportement du visiteur ne permet pas de savoir si un site un bon. Car s'il n'est pas bon, je m'en vais et s'il est bon, j'ai trouvé et je m'en vais aussi...
     
  15. dobey
    dobey Nouveau WRInaute
    Inscrit:
    1 Juin 2006
    Messages:
    31
    J'aime reçus:
    0
    Re: liens du même domaine

    Tout à fait d'accord avec toi, c'est un vrai credo sur WRI (avec également la sentence "faites du contenu de qualité et les visiteurs arriveront") mais à mon sens ce n'est pas vrai :
    - Pour les thématiques similaires, mon expérience prouve au quotidien que ça n'a pas ou peu d'effet. D'ailleurs, la notion de thématique similaire est très floue. Le site d'un fabriquant de radiateurs doit il avoir des BL uniquement sur des sites de radiateurs, ou bien des BL depuis des sites parlant de thermique, métallurgie, maitrise de l'énergie, corrosion, peinture spéciale, fluides, vannes etc. sont ils pertinents? Nous faisons tous l'expérience de navigations sinueuses sur le net (je cherche une info sur les radiateurs et une heure plus tard, je lis une page sur la reproduction du Bonobo en captivité): c'est une démarche naturelle qui correspond à la réalité de notre monde (voir une discussion libre autour d'un bon repas, c'est pareil). Le net n'est pas une bibliothèque avec des sections thématiques et des livres fermés, au contraire.
    - Pour la maxime "faites du contenu de qualité" : je gère depuis 4 ans un annuaire thématique et j'ai une bonne vision du secteur. Je peux vous garantir que la visibilité des sites dans ce domaine n'a rien à voir avec la qualité du contenu. Je découvre régulièrement des perles introuvables dans les moteurs.

    Pas tout à fait vrai. Si c'est la page que tu cherchais, tu y passes souvent quelques minutes, le temps de lire et/ou de prendre des notes, et souvent tu explores le reste du site pour chercher un complément d'infos, ou par simple intérêt. Je pense (on est plus dans la spéculation) que l'observation du comportement des visiteurs pour le classement des pages est un des axes de développement de Google. Déjà en oeuvre, et dans quelle mesure? Difficile à dire.
     
  16. blman
    blman WRInaute accro
    Inscrit:
    5 Septembre 2003
    Messages:
    2 719
    J'aime reçus:
    3
    Concernant ce débat sur la thématique, je suis assez d'accord avec vous. Pour le moment, ça n'entre peut-être pas en jeu. Mais d'ici quelques temps ?

    1- Google est capable de déterminer des thématiques. C'est une certitude (essayer d'acheter des adwords, Google propose des thématiques)

    2- Il est, selon moi, plus naturel d'avoir une grande proportion de BL provenant de la même thématique. Si mon site parle de musique, j'aurais naturellement plus tendance à retrouver mes BL sur des sites pour musiciens, d'instruments, de MP3, ... que sur des sites d'agence de communication ou dé référencement.

    3- Toujours selon moi, le Trust prend une place de plus en plus importante (comme je l'ais expliqué plus haut). Google accordera sa confiance au site qui lui paraisse le plus naturel possible.

    4- dobey, pour la maxime "faites du contenu de qualité", c'est tout de même le meilleur moyen de récolter des BL de qualité sans aucun effort de référencement, non ? Il me parait évident qu'on ne puisse pas remettre en question cette maxime
     
  17. dobey
    dobey Nouveau WRInaute
    Inscrit:
    1 Juin 2006
    Messages:
    31
    J'aime reçus:
    0
    Ca serait tellement bien. Mais comment un bon site de contenu laissé tel quel par son webmaster (souvent le cas de sites associatifs) peut il ammorcer la pompe, commencer à se faire connaitre et donc à avoir des BL naturels? C'est vrai que le contenu de qualité est très important, mais si le webmaster (parfois amateur) ne fait pas un minimum de démarches, son site restera une impasse sur le web. C'est ce que j'ai pu constater.
     
  18. blman
    blman WRInaute accro
    Inscrit:
    5 Septembre 2003
    Messages:
    2 719
    J'aime reçus:
    3
    On est d'accord, c'est de moins en moins suffisant. C'est tout de même la base.
     
  19. Bobi La Pointe
    Bobi La Pointe Nouveau WRInaute
    Inscrit:
    14 Juin 2006
    Messages:
    42
    J'aime reçus:
    0
    Outre l'aspect 'référencement', la qualité du contenu du site fidélisera les internautes et générera du trafic.
    C'est un peu basic comme remarque, mais faut pas oublier l'essentiel...

    Pensez-vous que la qualité purement technique d'une page web (respectant les standards, code optimisé, moderne (xhtml, css2)) soit un critère de référencement ?

    Compte tenu des 1er résultats Google souvent 'pages persos' c'est pas sûre, mais GG pourrait considérer qu'il préfère proposer à ces internautes de 'belles' pages.
     
  20. Szarah
    Szarah WRInaute accro
    Inscrit:
    22 Février 2006
    Messages:
    5 997
    J'aime reçus:
    1
    La vocation d'un moteur de recherches est d'indexer le plus de ressources accessibles possible : pages et autres documents.
    Question niveau d'accessibilité de ces ressources, il se débrouille avec ce qu'on lui donne à manger, et du moment que ça ne va pas au 404, le moteur indexe tout ce qu'il peut.
    De très nombreux sites non-modernes (html de base, frameset, ...) sont non seulement indexés mais bien positionnés, de même qu'on trouve en tête de certaines recherches des pages au code cochonné.
    Donc : non, ça ne compte pas.

    Mais, bien sûr, il va de l'intérêt du webmaster de permettre au plus grand nombre d'internautes d'accéder à son site avec tout le confort et toute la vitesse imaginables ... c'est une autre question.
     
  21. Bobi La Pointe
    Bobi La Pointe Nouveau WRInaute
    Inscrit:
    14 Juin 2006
    Messages:
    42
    J'aime reçus:
    0
    Oui dans le fond, ce n'est pas vraiment son problème...

    Accorderait-il tout de même une petite préférence pour une page avec Doctype plutôt qu'une autre où il est manquant ?

    Je trouve qu'un gros bug d'affichage (mais un gros quand même) devrait dans une certaine mesure, être pénalisant pour le référencement d'une page.
     
  22. Szarah
    Szarah WRInaute accro
    Inscrit:
    22 Février 2006
    Messages:
    5 997
    J'aime reçus:
    1
    Mon rêve perso, Bobi La Pointe, c'est que la conformité aux normes devienne un critère éliminatoire :)

    Mais les moteurs ne peuvent pas se le permettre ... il reste trop de pages mal fichues mais tout de même exploitables.
    Alors il faut prêcher pour convaincre les webmasters que c'est leur intérêt : plus un site est conforme et accessible, plus il aura de clients potentiels.
    Et c'est vrai, en plus :)
     
  23. dobey
    dobey Nouveau WRInaute
    Inscrit:
    1 Juin 2006
    Messages:
    31
    J'aime reçus:
    0
    Et ainsi pénaliser lourdement 90% des sites persos et associatifs. Ce serait vraiment dommage. Je trouve que la richesse du web, c'est encore beaucoup ces petits sites boiteux de passionnés, qui méritent souvent par leur contenu d'être référencés, même si l'ergonomie et le graphismes sont déplorables.
     
  24. Szarah
    Szarah WRInaute accro
    Inscrit:
    22 Février 2006
    Messages:
    5 997
    J'aime reçus:
    1
    Je pensais que le lecteur aurait compris que je voulais dire en ce qui concerne les nouveaux sites.
    Aujourd'hui, il n'existe plus aucune excuse pour créer un site hors-normes.
     
  25. Bobi La Pointe
    Bobi La Pointe Nouveau WRInaute
    Inscrit:
    14 Juin 2006
    Messages:
    42
    J'aime reçus:
    0
    Pour le moment, il semble en tout les cas que GG et ses collègues ne tiennent pas compte de l'aspect technique et graphique.

    Même si j'ai qq doutes à ce qu'ils préfèrent des pages avec Doctype tout de même...

    Pas vraiment de preuves, mais des petits doutes.
    Je vais faire une recherche sur le forum, tiens.
     
  26. Bobi La Pointe
    Bobi La Pointe Nouveau WRInaute
    Inscrit:
    14 Juin 2006
    Messages:
    42
    J'aime reçus:
    0
    Bon et bien, pas mal de POST parle du DOCTYPE, et d'après ceux-ci, la réponse est unanime: il n'a aucune influence sur le référencement.



    pour le moment... :roll:
     
  27. dobey
    dobey Nouveau WRInaute
    Inscrit:
    1 Juin 2006
    Messages:
    31
    J'aime reçus:
    0
    Mmmh, pas tout à fait d'accord. Je rencontre de temps à autre, dans la vraie vie, pas celle des forums :), des "amateurs" qui ont réussit à pondre quelques pages sur leur association, leur activité artisanale ou leurs recherches généalogiques par exemple. Le résultat est souvent effrayant. Mais on a pas idée du travail que cela représente pour eux pour en arriver là. Ce sont parfois même des retraités qui se sont lancés dans l'informatique il y a quelques mois, bien péniblement, et qui mettent en ligne un site. Il faut imaginer pour ce genre de webmaster ce que la simple utilisation d'un client ftp représente... Je trouve que ce genre de démarche est respectable, elle force même l'admiration dans le sens où leur objectif est de diffuser simplement et gratuitement leurs connaissances. Et quand on découvre qu'ils ont exporté le site depuis powerpoint ou word, on se rend compte qu'on est loin de pouvoir leur parler de normalisation du code...

    Pour moi, un des charmes du web est ce mélange de sites amateurs (des webzines qui s'ignorent en fait) et de sites institutionnels. Le vrai web underground n'est pas celui des groupes gothiques et des boutiques de piercing, c'est celui de monsieurtoutlemonde qui présente ses miniatures en allumettes ou sa collection de pin's.
    Il ne faut pas que la normalisation devienne une forme d'élitisme sur le web.

    Si déjà tous les sites de collectivités territoriales étaient valides W3C, ce serait beau. Ils y sont légalement obligés, mais on en est très très loin...
     
  28. Szarah
    Szarah WRInaute accro
    Inscrit:
    22 Février 2006
    Messages:
    5 997
    J'aime reçus:
    1
    Je suis bien d'accord, je suis la première à défendre les sites dits persos et la richesse qu'ils ont apporté au Web, et à dire que beaucoup d'entre eux seront encore là alors que les boutiques montées n'importe comment pour faire du fric auront disparu (voir plein de mes posts précédents).

    Mais les temps changent ...
    Un jour, on a décidé qu'il faudrait désormais un permis de conduire, pour faire une analogie.
    Et personne n'a moufté.
    Les automobilistes n'en sont pas devenus une élite :)
    Ils sont juste soumis à des normes.
     
  29. ybet
    ybet WRInaute accro
    Inscrit:
    22 Novembre 2003
    Messages:
    7 419
    J'aime reçus:
    1
    on espère bien que non... Serais curieux de connaître le % de pages compatibles avec toutes ces nouvelles normes décidées par des penseurs théroiques par rapport aux nombres de pages qui ne le sont pas.

    A part sur les forum spécialisés, qui se soucie vraiment de ces normes?
     
  30. wullon
    wullon WRInaute accro
    Inscrit:
    18 Septembre 2004
    Messages:
    2 788
    J'aime reçus:
    0
    +1

    Ce que j'aime bien, c'est justement le côté différent de l'Internet et du web en particulier : pas de normes obligatoires, de "chef du web", etc... (même si blablabla :roll:).

    Privilégier les sites qui respectent le W3C, ce n'est clairement pas pertinent selon moi.
    Ces sites-là s'auto-pénalisent déjà en ne "facilitant" pas le crawl et en étant différents de la grosse majorité des sites (un peu comme les sites en Flash par exemple), pas la peine d'en rajouter.
     
  31. Szarah
    Szarah WRInaute accro
    Inscrit:
    22 Février 2006
    Messages:
    5 997
    J'aime reçus:
    1
    Bah, les recommandations du W3C sont juste ça : des recommandations, rien d'obligatoire.
    Pourtant, le W3C c'est une multitude d'acteurs du Web : MS, IBM, SUN, ... tous ceux qui connaissent les enjeux. Et ils n'imposent rien.

    J'observe que ceux qui critiquent les recos du W3C se plient servilement, et même le plus bas possible, devant les recommandations d'un opérateur privé, par exemple densité de mots-clés, et gnagnagnaaaa ... sous le prétexte que cette inféodation servile leur rapporte des sous.
     
  32. Bobi La Pointe
    Bobi La Pointe Nouveau WRInaute
    Inscrit:
    14 Juin 2006
    Messages:
    42
    J'aime reçus:
    0
    A contenu de valeur égale, les moteurs ont-ils intérêt de privilégier un site plus compatible et plus accessible pour les internautes ?

    Si la réponse est oui, alors ce sera dans leur intérêt de prendre en compte certains aspects techniques.

    Sans pour autant rentrer dans l'excès du respect stricte des normes W3C, qui comme vous dîtes n'a rien avoir avec le référencement.
     
  33. wullon
    wullon WRInaute accro
    Inscrit:
    18 Septembre 2004
    Messages:
    2 788
    J'aime reçus:
    0
    et
    Je réagissais surtout à cette dernière citation. Je ne critique pas les recos du W3C, mais comme tu le soulignes, se plier à des critères de densité etc... n'est pas très malin non plus.

    Mais on parlait surtout des sites persos, et les sites les mieux référencés/positionnés ne sont pas ceux qui se construisent en fonction des critères "connus" de Google, mais plutôt ceux qui s'optimisent en fonction de ces derniers, "après coup", il y a une nuance :p - et encore, je dirais même que ce sont les critères de Google qui ont tendance à s'adapter aux critères plus ou moins subjectifs de l'internaute :).
     
  34. Szarah
    Szarah WRInaute accro
    Inscrit:
    22 Février 2006
    Messages:
    5 997
    J'aime reçus:
    1
    Bah, sur le fond on est bien d'accord, Wullon :)
    Je ne critique pas non plus le souci de rentabilité, qui est légitime.
    Mais les normes, c'est un truc qui devient nécessaire d'imposer quand il y a beaucoup d'utilisateurs, pour améliorer la gestion de l'ensemble (comme pour l'automobile).
    La meilleure des choses qui pourrait arriver selon moi c'est que Google impose ces normes. On y trouverait de l'intérêt et donc la standardisation serait plus rapide.
    Les normes, ce n'est pas fait pour rabaisser les gens, c'est pour monter le niveau moyen.
    Et encore une fois : on est d'accord en gros.
     
  35. ybet
    ybet WRInaute accro
    Inscrit:
    22 Novembre 2003
    Messages:
    7 419
    J'aime reçus:
    1
    Ah bon. En suivant ce résonnement, tu élimine 99 % des créateurs de sites (en fait tous les sites perso), tous ceux qui ne passent pas leur vie à lire des boucains mais utilisent des logiciels courants pour créer leurs pages.

    Depuis quand la majorité doit suivre les idées d'une faible minorité
     
  36. Szarah
    Szarah WRInaute accro
    Inscrit:
    22 Février 2006
    Messages:
    5 997
    J'aime reçus:
    1
    Prenons donc un exemple simple : le mien :)
    Je code avec le Notepad - si tu vois plus simple, n'hésite pas à le dire.
    Ensuite, je soumets aux valideurs HTML et CSS du W3C, et je corrige. C'est online et gratuit.
    Enfin, je teste sous IE et FF : gratuits tous les deux et plus courant, je ne connais pas.
    Et donc c'est valide et ça fonctionne, sans prise de tête et sans bouquin à lire.
    Cela s'appelle le monde réel. Si tu crois que ça se passe autrement, tu t'es laissé avoir par la pub :)
     
  37. ajax
    ajax WRInaute discret
    Inscrit:
    20 Mars 2006
    Messages:
    221
    J'aime reçus:
    0
    Hé ba, c'est pas la modestie qui va vous étouffer.
     
  38. Arsène
    Arsène WRInaute discret
    Inscrit:
    7 Mars 2006
    Messages:
    62
    J'aime reçus:
    0
    Depuis quand la majorité des gens doit suivre la minorité des logiciels qui génèrent du code spécifique, non HTML ?
     
  39. Albert1
    Albert1 WRInaute impliqué
    Inscrit:
    23 Août 2005
    Messages:
    771
    J'aime reçus:
    0
    Pourquoi Google aurait il besoin d'imposer ces normes ?
    à l'évidence, ces normes s'imposent d'elles mêmes, il suffit de lire openweb pour se rendre à l'évidence :wink:

    après, si de nombreuses personnes se considérant comme des webdesigners, webmasters ou que sais je, trouvent que lire les recommandations est trop laborieux, en effet, c'est laborieux, mais c'est comme tout, le savoir c'est rarement inné !
     
  40. Zim'
    Zim' WRInaute impliqué
    Inscrit:
    27 Avril 2006
    Messages:
    599
    J'aime reçus:
    0
    on s'évade, on s'évade... et c'est bien dommage

    Merci de diviser ce topic car le sujet de la discution tourne autour de: "Faut-il ou non privilégier sur les moteurs les site "aux normes"? "
     
  41. mia_mi
    mia_mi WRInaute discret
    Inscrit:
    25 Novembre 2005
    Messages:
    75
    J'aime reçus:
    0
    ... Tu as raison Zim', la question de départ était "quels seraient les nouveaux critères de positionnement ?"

    1. densité dans le corps de la pgae ? (pas plus qu'avant ?)
    2. densité du mot clé cible dans les liens sortants ? (pas d'avis)
    3. Importance des textes d'ancrage (en baisse ? à cause du Google Boming ?)
    4. Importance d'avoir des BL vers les pages internes (+++)
    5. Thématique des BL (++ - Faisabilité grâce aux outils AdSense ?)
    6. Importance du domaine (trusty or not trusty)
    7. Importance du contenu
    8. Impact de la qualité technique (NON)

    Pour compléter cela, le site qui est passé de n°1 à N°2 est :
    - n°1 avec le filtre allintitle
    - n°1 avec le filtre allintext
    - n°1 avec le filtre allinanchor
     
  42. vincelol
    vincelol Nouveau WRInaute
    Inscrit:
    9 Mars 2006
    Messages:
    16
    J'aime reçus:
    0
    A travers l'analyse de la Google Toolbar.
    Tu cliques sur un lien dans les SERP et si tu clique sur "précédent", c'est que le résultat ne te convient pas.
    S'il te convient, tu y passe plus de temps tu as raison.

    Mais tout le monde n'utilise pas la Google Toolbar ^^
     
  43. sunflower
    sunflower WRInaute discret
    Inscrit:
    5 Janvier 2006
    Messages:
    111
    J'aime reçus:
    0
    Je me permet un avis sur une certaine mauvaise foi des surspécialistes à qui tout semble simple - j'en ai fait partie à un moment de ces prosélytes du w3c qui auraient bien exigé la l'amende ou la fermeture aux webmestres qui n'arrivent à faire du valid strict etc. Je continue à penser tout de même que si on sait comment faire, autant le faire bien. Mais bon, faut rester souple...

    Super ! Et quand on veut pas en faire son métier de juste poser à grand'peine 4 pages, à moitié pourries techniquement car on n'aime pas les machines, pour se faire plaisir en donnant ses petites astuces uniques sur un sujet qu'on maîtrise à 100% ? Ca mérite une (bonne) place sur les moteurs... si on peut consulter les infos.

    Attaquer les générateurs de HTML pourris oui, les gens qui se débrouillent vaillamment comme ils peuvent, ben je pense pas que ce soit une option...

    Note : IE n'est pas dispo partout et pas pour rien (inclus dans la licence windows)
    Plus simple que notepad, vi :) - je sais, pas forcément plus simple...

    Bah je dirais que souvent les normes c'est fait pour verrouiller les gens ou se donner une légitimité. Moyennant une lourdeur en plus. Le grand jeu de l'informatique de toujours, c'est que chacun se fait ses normes et après essaie de les imposer pour faire c... la concurrence qui doit s'aligner (voir m$ ou cisco ;))
    Le w3C etc c'est différent... Mais au vu du monde réel, ce serait réserver le web aux spécialistes et s'enfermer avec un ticket d'entrée inabordable pour la majorité.

    La comparaison avec la voiture/permis reviens une fois de plus, j'en profite... Je la trouve sincèrement foireuse : on a surtout fait un permis pour que les gens ne se TUENT pas. Sur le web, les dangers sont très virtuels...
    A quand le permis de respirer ? Pour apprendre à pas exposer son haleine de phoque au nez des gens, ça perturbe les réunions de travail c'est moins efficace :D

    Bon allez je retourne à ma corde pour me pendre... elle a dû finir de se télécharger...
     
  44. Szarah
    Szarah WRInaute accro
    Inscrit:
    22 Février 2006
    Messages:
    5 997
    J'aime reçus:
    1
    A chaque fois qu'on impose un règlement, les gens râlent au nom de la liberté.
    Mais ils passent le permis de conduire, ils trient leurs déchets, ils arrêtent de fumer dans les lieux publics, ils dressent leurs chiens au caniveau ... on les matera aussi sur le Web :)

    La popularisation de n'importe quoi met fin à la liberté librement consentie à soi comme aux autres (feue la Netiquette) pour faire place aux règlements : c'est un classique. Mais bon, ce n'est pas pour tout de suite et certains vont trop vite pour tenter de gérer ce qui est encore ingérable - la CNIL, tiens, bel exemple de tentative de contrôle fichue à l'eau par l'explosion du nombre de gens à contrôler.

    Côté code Web, il n'y aurait pas besoin de normes si les navigateurs étaient réellement compétents et si les gens cessaient de vouloir mettre en forme. Déjà là, tu tapes n'importe quoi dans une page que tu nommes .htm, pas besoin de Doctype! ni de balise <html>, un bon navigateur va te montrer ça relax ... mais faut oublier la mise en forme, le référencement et ce genre de trucs. Ou alors, tu fais du .pdf ou du .doc - lus par plugins privés mais tu les as, ta mise en forme et ton référencement.
    Contrairement à ce que tu crois, les normes, c'est accessibilité pour tous, gratuitement, il n'y a pas plus démocratique. Faudra y passer ou le Web finira par se privatiser.
     
  45. Albert1
    Albert1 WRInaute impliqué
    Inscrit:
    23 Août 2005
    Messages:
    771
    J'aime reçus:
    0
    Que veux tu dire là ?
    un site "W3C compliant" serait il si différent d'un site banal ?
    en terme d'aspect et d'ergonomie ?
     
  46. wullon
    wullon WRInaute accro
    Inscrit:
    18 Septembre 2004
    Messages:
    2 788
    J'aime reçus:
    0
    Non, pas du tout.

    Il me semble qu'en général, on dit "si votre site est W3C compliant, il sera bien crawlé", ce qui n'est pas tout à fait vrai, mais que je comprend pas "un site bien structuré et sans erreur de code sera bien crawlé".

    C'est à mon sens le seul intéret - vis à vis du référencement - de faire le contrôle de ces pages et de s'arranger pour qu'elles soient OK : si toutes pages sont OK, on peut se dire que normalement GoogleBot et ses amis passeront sans problème.

    Par contre, si un site est "crado" niveau code, ce ne sera peut-être pas le cas. Mais c'est le problème du site (par exemple si le contenu réel est dillué dans 3 tonnes de tables, et que cela le pénalise, tant pis pour lui), pas la peine de rajouter un critère spécifique et distinct "W3C OK ?" pour faire un classement, selon moi.
     
  47. Albert1
    Albert1 WRInaute impliqué
    Inscrit:
    23 Août 2005
    Messages:
    771
    J'aime reçus:
    0
    Pour l'explication, merci !
    j'avais du mal à comprendre, malgrè au moins 3 relecture ...
    je pense que c'est évident !
    de toute façon ... actuellement, je doute que le "classement" des résultats tienne compte de la validité ...
    et ça ne risque pas de changer :wink:

    ensuite sur les conséquences du "codage crado",
    on a le même avis je pense, comme Maxwell : «inutile d'en rajouter»
     
Chargement...
Similar Threads - Nouveaux critères positionnement Forum Date
Nouveaux critères : Un article en plein dans le mille Crawl et indexation Google, sitemaps 4 Février 2004
Nouveaux critères apres la Danse 26 janvier Crawl et indexation Google, sitemaps 26 Janvier 2004
Blog wordpress piraté ? Des dizaines de nouveaux mauvais Backlinks Netlinking, backlinks, liens et redirections 10 Novembre 2019
Nouveaux utilisateurs + visites directes Google Analytics 30 Septembre 2019
Cibler de nouveaux pays/langues Référencement international (langues, pays) 1 Août 2019
Indexation de nouveaux url et crawl Référencement Google 15 Novembre 2018
Mise à jour / nouveaux contenus Référencement Google 15 Août 2017
Nouveaux encarts Google 1ère position sur certaines requêtes Débuter en référencement 24 Janvier 2017
Renouveler ou pas des nouveaux NDD ? Noms de domaine et référencement 12 Janvier 2016
Dmoz.org accepte-t-il encore des nouveaux sites ? Débuter en référencement 7 Octobre 2015
Comment indiquer mes nouveaux liens a Google ? Débuter en référencement 21 Mars 2015
Nouveaux types de Menu et SEO Débuter en référencement 6 Mars 2015
Google ne prend en compte mes nouveaux articles que 3 jours après leur publication Débuter en référencement 15 Février 2015
Avantage aux nouveaux sites ? Problèmes de référencement spécifiques à vos sites 12 Janvier 2015
Nouveaux noms de domaine & référencement Référencement Google 16 Septembre 2014
Efficacités des nouveaux outils de content spinning? Débuter en référencement 6 Juin 2014
Nouveaux noms de domaine Noms de domaine et référencement 23 Mai 2014
Nouveaux domaines non-indexés sur Google après plusieurs mois Crawl et indexation Google, sitemaps 13 Décembre 2013
Fréquence de nouveaux contenus et impact sur le référencement Référencement Google 3 Décembre 2013
Stripe, Paymill, Braintree, nouveaux moyens de paiements, avez vous essayé ? e-commerce 5 Septembre 2013