Nouveaux critères de positionnement ???

WRInaute discret
Il semblerait que les résultats de Big Daddy se propagent sur tous les DC. 2 sites dont je m'occupe sont passés de N°1 à N°2 (PR5) et de N°1 à N°3 (PR6). Je me demandais du coup dans quel sens ont évolué les critères ???

1. Il semblerait que le nombre d'occurrences (ou la densité) pour la requête cible ait plus de poids qu'avant. (même un site contenant 92 fois le mot piscine n'est pas blacklisté en tout cas, mais n'est pas non plus 1er)
2. Je me demandais si la densité du mot clé cible dans les liens sortants avait un importance ?
3. la présence du mot clé dans les textes d'ancrage semble également avoir diminué d'importance (à cause du google bombing ???)
4. Est ce que les pourcentage de liens externes par rapport au nombre de liens internes a une importance ?

Si vous avez des idées ... n'hésitez pas, pour l'instant j'ai augmenté le nb d'occurence des mots clés cibles, je ne sais pas trop si ça va servir à quelque chose.

++
Mia
 
WRInaute accro
Le critère "Trust" joue de plus en plus à mon avis. Après, je pense que personne ne peut définir à 100% les critères utilisés par Google qui lui permettent de penser si un site est de "confiance" ou non. On a déjà évoqué quelques idées ici, chacun a dû faire quelques tests dans son coin, mais c'est encore trop jeune pour définir des règles.
 
WRInaute discret
l'observation la plus importante que j'ai faite, c'est le danger de mettre une meme ancre dans ses échanges de liens, surtout si il s'agit d'un mot unique, et qui plus est concurentiel

il faut varier à tout prix sinon : pénalisation. Ca n'était pas le cas avant et j'ai donc du passer beaucoup de temps à faire changer les liens : effectivement deux semaines après retour au positionnement initial

ca rejoint d'ailleurs une observation faite plus haut concernant le google bombing
 
WRInaute discret
Je suis d'accord sur le fait que des textes d'ancrage trop identiques sont pénalisants ! C'est pour cela que les liens en footer de toutes les pages d'un site dynamque peuvent faire très mal ! Mais c'est vrai que pour les deux sites concernés, différents ancrages ont été utilisés pour les échanges de liens. Ces derniers termps, ls échanges ont été développés pour avoir des liens vers les pages internes du site au détriment de la home page ...
Je ne sais pas si c'est mieux :s
 
WRInaute discret
authority sites

bonjour,
c'est chouette d'avoir un fil de haut niveau comme ça.
Je gère une bonne centaine de sites et les changements qui ont eu lieu il y a 3 jours ont affecté un bon tiers d'entre eux. Y compris centreurope.org, qui est un "authority site" et que l'on trouve aujourd'hui à la 50e place pour la requête... centreurope.

- Par rapport à l'observation de la gérance, je ne pense pas que le changement soit lié au fait de pointer avec le même texte. C'est effectivement nécessaire de varier le texte, mais ce n'est pas nouveau.

- Plus généralement, je ne crois que les bouleversements qui ont eu lieu peuvent être uniquement liés à un changement de l'algo. Je pense que Google réduit son index "utile" progressivement en faisant sortir de manière aléatoire à chaque dance (ou autre nom, peu importe) des milliers de domaines de ses résultats.
Le critère "trust" est effectivement le plus important et cela se confirme, mais même les authority site peuvent être délaissés (temporairement ?) par google. Voir par exemple ce mois-ci un des plus gros hébergeurs gratuits au monde, beep.com
 
WRInaute discret
Par rapport à l'observation de la gérance, je ne pense pas que le changement soit lié au fait de pointer avec le même texte. C'est effectivement nécessaire de varier le texte, mais ce n'est pas nouveau.

Bonjour,

Non ce n'est pas nouveau, mais c'est le degré de prise en compte de ce critère (anchor variées ou non) certainement pour mieux lutter contre le google bombing qui a changé.

Par exemple, sur des requetes à plus de 50 millions de réponses, j'ai des sites qui étaient dans les 3 premiers qui ont été désindexés, et c'est arrivé à d'autres personnes le meme jour , meme importance de requete, le point commun qu'on a identifié était qu'on avait des bl en grand nombre (plus de 1000) avec la meme ancre.

On a donc fait varié ces ancres et une à deux semaines après nos sites ont été réindexés et reviennent progressivement au meme positionnement

Pour la question plus haut, avoir des bl vers des pages intérieures est excellent, il ne faut pas tout miser sur la home page, cela permettra aux robots d'indexer plus en profondeur votre site.
 
WRInaute accro
En ce qui concerne les BL, voila quelques critères dont je suis quasiment sûr :
- effectivement, varier les intitulés des BL est important
- les BL provenant en grande partie d'annuaire semble être moins pris en compte (pas forcément pénalisant, mais ils ont moins de poids) (annuaire ou sites ayant une trop grande proportion de liens sortants)
- Une trop grande proportion de BL pointant vers la home semble être pénalisant

En tout cas, le critère "Trust" doit être en très grande partie basé sur l'analyse des BL entrants et sortants. Le fait que ces BL soient dans la même thématique semble aussi important mais là, je n'ais fait aucun test
 
WRInaute discret
liens du même domaine

pour compléter ton analyse blman,
les liens provenant de la même thématique n'ont pas plus d'impact que les autres liens. On lit le contraire sur wri et même sur des forums de bon niveau, mais c'est un mythe...
d'une manière générale, les liens entrants ont un impact très limité.
 
WRInaute discret
sites

dd32 a dit:
Sur quoi te bases-tu Centreurope stp ?
une centaine de sites (tous sur des ip de classe c différentes), dont 5 authority sites (ou qui se sont comportés comme tels à un moment donné _ j'ai peur que l'on puisse "perdre" ce statut").
je ne pense pas qu'il y ait beaucoup de personnes qui connaissent google comme moi sur wri (sans prétention), mais je n'interviens pas beaucoup car je n'aime pas du tout la mentalité générale sur ce forum.
 
WRInaute discret
Pour toi quelle est la limite des liens entrants ? J'avais beaucoup bossé pour avoir des liens entrants avec des mots clés cibles et ça a très bien marché même si les mots clés n'étaient ni présents ni dans le titre, ni dans le corps de texte (du moins à la suite ...)
C'est vrai que je trouve qu'avec les résultats sur Big Daddy 2 ça marche beaucoup moins bien ...

Mais j'ai malgré tout essayé de varier les textes d'ancrages en faisant ancrage=mot1+mot2, ancrage=mot2+mot1 ou encore mot1+mot2+autres mots ...

Le pb de ces sites c q les propriétaires ont fait une course au PR, en particulier celui qui a un PR6, c'est pour cela que je demandais si la thématique des liens sortants ou la densité du mot clé cible dans les liens sortants pouvaient avoir un impact ?
 
WRInaute discret
mia_mi a dit:
Pour toi quelle est la limite des liens entrants ? J'avais beaucoup bossé pour avoir des liens entrants avec des mots clés cibles et ça a très bien marché même si les mots clés n'étaient ni présents ni dans le titre, ni dans le corps de texte (du moins à la suite ...)
C'est vrai que je trouve qu'avec les résultats sur Big Daddy 2 ça marche beaucoup moins bien ...

-------- les liens entrants ont un poids direct relativement faible par rapport à ce qui est de loin le plus important (et que l'on ne lit jamais sur wri), le domaine. Cela peut aider au positionnement sur les requêtes peu concurrentielles, mais c'est tout. Et même les fameux google bombing sont toujours sur des domaines forts (du moins ceux qui ont marché).


Le pb de ces sites c q les propriétaires ont fait une course au PR, en particulier celui qui a un PR6, c'est pour cela que je demandais si la thématique des liens sortants
- la thématique sur que non, le type de site (sites institutionnels, .edu., gov., etc.), oui.
. ou la densité du mot clé cible dans les liens sortants pouvaient avoir un impact ?
- effectivement, il faut que le mot s'y retrouve, mais avec des variations et en imitant un processus d'acquisition des liens naturels (période étendue, texte varié)
 
WRInaute accro
Re: authority sites

Centreurope.org a dit:
... Je pense que Google réduit son index "utile" progressivement en faisant sortir de manière aléatoire à chaque dance (ou autre nom, peu importe) des milliers de domaines de ses résultats...

je pense qu'il n'y a rien d'aléatoire dans l'algo de google,
s'il y a désindexation de pages d'un domaine (pages inutiles, anciennes, jamais regardées...) il est quasi inévitable que le positionnement d'un site change puisque ses backlinks internes du coup diminuent elles aussi.

Ta logique "d'index utile" est en accord avec ce qu'on pourrait attendre d'un "trustrank" : des sites à jour et vivant, des domaines stables (+ d'un an...)
une progression constante mais raisonnée des liens et une fréquentation non hasardeuse (on cherche, on trouve, on reste visiter)
 
WRInaute discret
Re: authority sites

je pense qu'il n'y a rien d'aléatoire dans l'algo de google,
s'il y a désindexation de pages d'un domaine (pages inutiles, anciennes, jamais regardées...) il est quasi inévitable que le positionnement d'un site change puisque ses backlinks internes du coup diminuent elles aussi.

------- ce n'est pas tout à fait aléatoire, tu as raison. Les sites institutionnels sont épargnés, mais une partie des "authority sites" qui ont de forts backlinks et sont actualisés régulièrement peuvent aussi à la trappe.

Ta logique "d'index utile" est en accord avec ce qu'on pourrait attendre d'un "trustrank" : des sites à jour et vivant, des domaines stables (+ d'un an...)
une progression constante mais raisonnée des liens et une fréquentation non hasardeuse (on cherche, on trouve, on reste visiter)[/quote]

----- j'ai lu l'article d'olivier sur le trustrank et j'ai été épaté à quel point il est bourré d'erreurs... Je ne vais pas rentrer dans les détails car je n'ai pas assez de temps mais la démarche de google est connue depuis longtemps. Scientifiquement (et je ne parle pas des soi-disant "articles de recherche" de WRI), les spécialistes des moteurs ont montré que l'on pouvait obtenir des résultats aussi bons en faisant les recherches sur une infime partie du web (principe un peu similaire à celui de la diversification en bourse pour ceux qui connaissent : avec une trentaine d'actions diversifiées, je suis l'indice sans avoir besoin d'acheter toutes les valeurs). Donc, depuis quelques années google fait progressivement son tri...


------- pour la fréquentation, je ne crois pas que google sache s'en servir, même si contrairement à l'époque de création de l'algo, ils peuvent aujourd'hui grâce à la google toolbar disposer de statistiques de fréquentation très précises. Mais le comportement du visiteur ne permet pas de savoir si un site un bon. Car s'il n'est pas bon, je m'en vais et s'il est bon, j'ai trouvé et je m'en vais aussi...
 
Nouveau WRInaute
Re: liens du même domaine

Centreurope.org a dit:
les liens provenant de la même thématique n'ont pas plus d'impact que les autres liens. On lit le contraire sur wri et même sur des forums de bon niveau, mais c'est un mythe...
Tout à fait d'accord avec toi, c'est un vrai credo sur WRI (avec également la sentence "faites du contenu de qualité et les visiteurs arriveront") mais à mon sens ce n'est pas vrai :
- Pour les thématiques similaires, mon expérience prouve au quotidien que ça n'a pas ou peu d'effet. D'ailleurs, la notion de thématique similaire est très floue. Le site d'un fabriquant de radiateurs doit il avoir des BL uniquement sur des sites de radiateurs, ou bien des BL depuis des sites parlant de thermique, métallurgie, maitrise de l'énergie, corrosion, peinture spéciale, fluides, vannes etc. sont ils pertinents? Nous faisons tous l'expérience de navigations sinueuses sur le net (je cherche une info sur les radiateurs et une heure plus tard, je lis une page sur la reproduction du Bonobo en captivité): c'est une démarche naturelle qui correspond à la réalité de notre monde (voir une discussion libre autour d'un bon repas, c'est pareil). Le net n'est pas une bibliothèque avec des sections thématiques et des livres fermés, au contraire.
- Pour la maxime "faites du contenu de qualité" : je gère depuis 4 ans un annuaire thématique et j'ai une bonne vision du secteur. Je peux vous garantir que la visibilité des sites dans ce domaine n'a rien à voir avec la qualité du contenu. Je découvre régulièrement des perles introuvables dans les moteurs.

Mais le comportement du visiteur ne permet pas de savoir si un site un bon. Car s'il n'est pas bon, je m'en vais et s'il est bon, j'ai trouvé et je m'en vais aussi
Pas tout à fait vrai. Si c'est la page que tu cherchais, tu y passes souvent quelques minutes, le temps de lire et/ou de prendre des notes, et souvent tu explores le reste du site pour chercher un complément d'infos, ou par simple intérêt. Je pense (on est plus dans la spéculation) que l'observation du comportement des visiteurs pour le classement des pages est un des axes de développement de Google. Déjà en oeuvre, et dans quelle mesure? Difficile à dire.
 
WRInaute accro
Concernant ce débat sur la thématique, je suis assez d'accord avec vous. Pour le moment, ça n'entre peut-être pas en jeu. Mais d'ici quelques temps ?

1- Google est capable de déterminer des thématiques. C'est une certitude (essayer d'acheter des adwords, Google propose des thématiques)

2- Il est, selon moi, plus naturel d'avoir une grande proportion de BL provenant de la même thématique. Si mon site parle de musique, j'aurais naturellement plus tendance à retrouver mes BL sur des sites pour musiciens, d'instruments, de MP3, ... que sur des sites d'agence de communication ou dé référencement.

3- Toujours selon moi, le Trust prend une place de plus en plus importante (comme je l'ais expliqué plus haut). Google accordera sa confiance au site qui lui paraisse le plus naturel possible.

4- dobey, pour la maxime "faites du contenu de qualité", c'est tout de même le meilleur moyen de récolter des BL de qualité sans aucun effort de référencement, non ? Il me parait évident qu'on ne puisse pas remettre en question cette maxime
 
Nouveau WRInaute
blman a dit:
4- dobey, pour la maxime "faites du contenu de qualité", c'est tout de même le meilleur moyen de récolter des BL de qualité sans aucun effort de référencement, non ? Il me parait évident qu'on ne puisse pas remettre en question cette maxime
Ca serait tellement bien. Mais comment un bon site de contenu laissé tel quel par son webmaster (souvent le cas de sites associatifs) peut il ammorcer la pompe, commencer à se faire connaitre et donc à avoir des BL naturels? C'est vrai que le contenu de qualité est très important, mais si le webmaster (parfois amateur) ne fait pas un minimum de démarches, son site restera une impasse sur le web. C'est ce que j'ai pu constater.
 
WRInaute accro
dobey a dit:
blman a dit:
4- dobey, pour la maxime "faites du contenu de qualité", c'est tout de même le meilleur moyen de récolter des BL de qualité sans aucun effort de référencement, non ? Il me parait évident qu'on ne puisse pas remettre en question cette maxime
Ca serait tellement bien. Mais comment un bon site de contenu laissé tel quel par son webmaster (souvent le cas de sites associatifs) peut il ammorcer la pompe, commencer à se faire connaitre et donc à avoir des BL naturels? C'est vrai que le contenu de qualité est très important, mais si le webmaster (parfois amateur) ne fait pas un minimum de démarches, son site restera une impasse sur le web. C'est ce que j'ai pu constater.

On est d'accord, c'est de moins en moins suffisant. C'est tout de même la base.
 
Nouveau WRInaute
Outre l'aspect 'référencement', la qualité du contenu du site fidélisera les internautes et générera du trafic.
C'est un peu basic comme remarque, mais faut pas oublier l'essentiel...

Pensez-vous que la qualité purement technique d'une page web (respectant les standards, code optimisé, moderne (xhtml, css2)) soit un critère de référencement ?

Compte tenu des 1er résultats Google souvent 'pages persos' c'est pas sûre, mais GG pourrait considérer qu'il préfère proposer à ces internautes de 'belles' pages.
 
WRInaute accro
Bobi La Pointe a dit:
Pensez-vous que la qualité purement technique d'une page web (respectant les standards, code optimisé, moderne (xhtml, css2)) soit un critère de référencement ?
La vocation d'un moteur de recherches est d'indexer le plus de ressources accessibles possible : pages et autres documents.
Question niveau d'accessibilité de ces ressources, il se débrouille avec ce qu'on lui donne à manger, et du moment que ça ne va pas au 404, le moteur indexe tout ce qu'il peut.
De très nombreux sites non-modernes (html de base, frameset, ...) sont non seulement indexés mais bien positionnés, de même qu'on trouve en tête de certaines recherches des pages au code cochonné.
Donc : non, ça ne compte pas.

Mais, bien sûr, il va de l'intérêt du webmaster de permettre au plus grand nombre d'internautes d'accéder à son site avec tout le confort et toute la vitesse imaginables ... c'est une autre question.
 
Nouveau WRInaute
Oui dans le fond, ce n'est pas vraiment son problème...

Accorderait-il tout de même une petite préférence pour une page avec Doctype plutôt qu'une autre où il est manquant ?

Je trouve qu'un gros bug d'affichage (mais un gros quand même) devrait dans une certaine mesure, être pénalisant pour le référencement d'une page.
 
WRInaute accro
Mon rêve perso, Bobi La Pointe, c'est que la conformité aux normes devienne un critère éliminatoire :)

Mais les moteurs ne peuvent pas se le permettre ... il reste trop de pages mal fichues mais tout de même exploitables.
Alors il faut prêcher pour convaincre les webmasters que c'est leur intérêt : plus un site est conforme et accessible, plus il aura de clients potentiels.
Et c'est vrai, en plus :)
 
Nouveau WRInaute
Szarah a dit:
Mon rêve perso, Bobi La Pointe, c'est que la conformité aux normes devienne un critère éliminatoire :)
Et ainsi pénaliser lourdement 90% des sites persos et associatifs. Ce serait vraiment dommage. Je trouve que la richesse du web, c'est encore beaucoup ces petits sites boiteux de passionnés, qui méritent souvent par leur contenu d'être référencés, même si l'ergonomie et le graphismes sont déplorables.
 
WRInaute accro
Dobey a dit:
Et ainsi pénaliser lourdement 90% des sites persos et associatifs.
Je pensais que le lecteur aurait compris que je voulais dire en ce qui concerne les nouveaux sites.
Aujourd'hui, il n'existe plus aucune excuse pour créer un site hors-normes.
 
Nouveau WRInaute
Pour le moment, il semble en tout les cas que GG et ses collègues ne tiennent pas compte de l'aspect technique et graphique.

Même si j'ai qq doutes à ce qu'ils préfèrent des pages avec Doctype tout de même...

Pas vraiment de preuves, mais des petits doutes.
Je vais faire une recherche sur le forum, tiens.
 
Nouveau WRInaute
Bon et bien, pas mal de POST parle du DOCTYPE, et d'après ceux-ci, la réponse est unanime: il n'a aucune influence sur le référencement.



pour le moment... :roll:
 
Nouveau WRInaute
Szarah a dit:
Aujourd'hui, il n'existe plus aucune excuse pour créer un site hors-normes.
Mmmh, pas tout à fait d'accord. Je rencontre de temps à autre, dans la vraie vie, pas celle des forums :), des "amateurs" qui ont réussit à pondre quelques pages sur leur association, leur activité artisanale ou leurs recherches généalogiques par exemple. Le résultat est souvent effrayant. Mais on a pas idée du travail que cela représente pour eux pour en arriver là. Ce sont parfois même des retraités qui se sont lancés dans l'informatique il y a quelques mois, bien péniblement, et qui mettent en ligne un site. Il faut imaginer pour ce genre de webmaster ce que la simple utilisation d'un client ftp représente... Je trouve que ce genre de démarche est respectable, elle force même l'admiration dans le sens où leur objectif est de diffuser simplement et gratuitement leurs connaissances. Et quand on découvre qu'ils ont exporté le site depuis powerpoint ou word, on se rend compte qu'on est loin de pouvoir leur parler de normalisation du code...

Pour moi, un des charmes du web est ce mélange de sites amateurs (des webzines qui s'ignorent en fait) et de sites institutionnels. Le vrai web underground n'est pas celui des groupes gothiques et des boutiques de piercing, c'est celui de monsieurtoutlemonde qui présente ses miniatures en allumettes ou sa collection de pin's.
Il ne faut pas que la normalisation devienne une forme d'élitisme sur le web.

Si déjà tous les sites de collectivités territoriales étaient valides W3C, ce serait beau. Ils y sont légalement obligés, mais on en est très très loin...
 
WRInaute accro
Dobey a dit:
Il ne faut pas que la normalisation devienne une forme d'élitisme sur le web.
Je suis bien d'accord, je suis la première à défendre les sites dits persos et la richesse qu'ils ont apporté au Web, et à dire que beaucoup d'entre eux seront encore là alors que les boutiques montées n'importe comment pour faire du fric auront disparu (voir plein de mes posts précédents).

Mais les temps changent ...
Un jour, on a décidé qu'il faudrait désormais un permis de conduire, pour faire une analogie.
Et personne n'a moufté.
Les automobilistes n'en sont pas devenus une élite :)
Ils sont juste soumis à des normes.
 
WRInaute accro
Bobi La Pointe a dit:
Oui dans le fond, ce n'est pas vraiment son problème...

Accorderait-il tout de même une petite préférence pour une page avec Doctype plutôt qu'une autre où il est manquant ?

on espère bien que non... Serais curieux de connaître le % de pages compatibles avec toutes ces nouvelles normes décidées par des penseurs théroiques par rapport aux nombres de pages qui ne le sont pas.

A part sur les forum spécialisés, qui se soucie vraiment de ces normes?
 
WRInaute accro
dobey a dit:
Mmmh, pas tout à fait d'accord. Je rencontre de temps à autre, dans la vraie vie, pas celle des forums :), des "amateurs" qui ont réussit à pondre quelques pages sur leur association, leur activité artisanale ou leurs recherches généalogiques par exemple. Le résultat est souvent effrayant. Mais on a pas idée du travail que cela représente pour eux pour en arriver là. Ce sont parfois même des retraités qui se sont lancés dans l'informatique il y a quelques mois, bien péniblement, et qui mettent en ligne un site. Il faut imaginer pour ce genre de webmaster ce que la simple utilisation d'un client ftp représente... Je trouve que ce genre de démarche est respectable, elle force même l'admiration dans le sens où leur objectif est de diffuser simplement et gratuitement leurs connaissances. Et quand on découvre qu'ils ont exporté le site depuis powerpoint ou word, on se rend compte qu'on est loin de pouvoir leur parler de normalisation du code...

Pour moi, un des charmes du web est ce mélange de sites amateurs (des webzines qui s'ignorent en fait) et de sites institutionnels. Le vrai web underground n'est pas celui des groupes gothiques et des boutiques de piercing, c'est celui de monsieurtoutlemonde qui présente ses miniatures en allumettes ou sa collection de pin's.
Il ne faut pas que la normalisation devienne une forme d'élitisme sur le web.

Si déjà tous les sites de collectivités territoriales étaient valides W3C, ce serait beau. Ils y sont légalement obligés, mais on en est très très loin...
+1

Ce que j'aime bien, c'est justement le côté différent de l'Internet et du web en particulier : pas de normes obligatoires, de "chef du web", etc... (même si blablabla :roll:).

Privilégier les sites qui respectent le W3C, ce n'est clairement pas pertinent selon moi.
Ces sites-là s'auto-pénalisent déjà en ne "facilitant" pas le crawl et en étant différents de la grosse majorité des sites (un peu comme les sites en Flash par exemple), pas la peine d'en rajouter.
 
WRInaute accro
Bah, les recommandations du W3C sont juste ça : des recommandations, rien d'obligatoire.
Pourtant, le W3C c'est une multitude d'acteurs du Web : MS, IBM, SUN, ... tous ceux qui connaissent les enjeux. Et ils n'imposent rien.

J'observe que ceux qui critiquent les recos du W3C se plient servilement, et même le plus bas possible, devant les recommandations d'un opérateur privé, par exemple densité de mots-clés, et gnagnagnaaaa ... sous le prétexte que cette inféodation servile leur rapporte des sous.
 
Nouveau WRInaute
A contenu de valeur égale, les moteurs ont-ils intérêt de privilégier un site plus compatible et plus accessible pour les internautes ?

Si la réponse est oui, alors ce sera dans leur intérêt de prendre en compte certains aspects techniques.

Sans pour autant rentrer dans l'excès du respect stricte des normes W3C, qui comme vous dîtes n'a rien avoir avec le référencement.
 
WRInaute accro
Szarah a dit:
Bah, les recommandations du W3C sont juste ça : des recommandations, rien d'obligatoire.
Pourtant, le W3C c'est une multitude d'acteurs du Web : MS, IBM, SUN, ... tous ceux qui connaissent les enjeux. Et ils n'imposent rien.

J'observe que ceux qui critiquent les recos du W3C se plient servilement, et même le plus bas possible, devant les recommandations d'un opérateur privé, par exemple densité de mots-clés, et gnagnagnaaaa ... sous le prétexte que cette inféodation servile leur rapporte des sous.
et
Szarah a dit:
Mon rêve perso, Bobi La Pointe, c'est que la conformité aux normes devienne un critère éliminatoire :)
Je réagissais surtout à cette dernière citation. Je ne critique pas les recos du W3C, mais comme tu le soulignes, se plier à des critères de densité etc... n'est pas très malin non plus.

Mais on parlait surtout des sites persos, et les sites les mieux référencés/positionnés ne sont pas ceux qui se construisent en fonction des critères "connus" de Google, mais plutôt ceux qui s'optimisent en fonction de ces derniers, "après coup", il y a une nuance :p - et encore, je dirais même que ce sont les critères de Google qui ont tendance à s'adapter aux critères plus ou moins subjectifs de l'internaute :).
 
WRInaute accro
Bah, sur le fond on est bien d'accord, Wullon :)
Je ne critique pas non plus le souci de rentabilité, qui est légitime.
Mais les normes, c'est un truc qui devient nécessaire d'imposer quand il y a beaucoup d'utilisateurs, pour améliorer la gestion de l'ensemble (comme pour l'automobile).
La meilleure des choses qui pourrait arriver selon moi c'est que Google impose ces normes. On y trouverait de l'intérêt et donc la standardisation serait plus rapide.
Les normes, ce n'est pas fait pour rabaisser les gens, c'est pour monter le niveau moyen.
Et encore une fois : on est d'accord en gros.
 
WRInaute accro
Szarah a dit:
Les normes, ce n'est pas fait pour rabaisser les gens, c'est pour monter le niveau moyen.
Et encore une fois : on est d'accord en gros.

Ah bon. En suivant ce résonnement, tu élimine 99 % des créateurs de sites (en fait tous les sites perso), tous ceux qui ne passent pas leur vie à lire des boucains mais utilisent des logiciels courants pour créer leurs pages.

Depuis quand la majorité doit suivre les idées d'une faible minorité
 
WRInaute accro
Ybet a dit:
Szarah a dit:
Les normes, ce n'est pas fait pour rabaisser les gens, c'est pour monter le niveau moyen.
Et encore une fois : on est d'accord en gros.
Ah bon. En suivant ce résonnement, tu élimine 99 % des créateurs de sites (en fait tous les sites perso), tous ceux qui ne passent pas leur vie à lire des boucains mais utilisent des logiciels courants pour créer leurs pages.
Prenons donc un exemple simple : le mien :)
Je code avec le Notepad - si tu vois plus simple, n'hésite pas à le dire.
Ensuite, je soumets aux valideurs HTML et CSS du W3C, et je corrige. C'est online et gratuit.
Enfin, je teste sous IE et FF : gratuits tous les deux et plus courant, je ne connais pas.
Et donc c'est valide et ça fonctionne, sans prise de tête et sans bouquin à lire.
Ybet a dit:
Depuis quand la majorité doit suivre les idées d'une faible minorité.
Cela s'appelle le monde réel. Si tu crois que ça se passe autrement, tu t'es laissé avoir par la pub :)
 
WRInaute discret
dobey a dit:
Szarah a dit:
Mon rêve perso, Bobi La Pointe, c'est que la conformité aux normes devienne un critère éliminatoire :)
Et ainsi pénaliser lourdement 90% des sites persos et associatifs. Ce serait vraiment dommage. Je trouve que la richesse du web, c'est encore beaucoup ces petits sites boiteux de passionnés, qui méritent souvent par leur contenu d'être référencés, même si l'ergonomie et le graphismes sont déplorables.
Hé ba, c'est pas la modestie qui va vous étouffer.
 
WRInaute impliqué
Szarah a dit:
Bah, sur le fond on est bien d'accord, Wullon :)
Je ne critique pas non plus le souci de rentabilité, qui est légitime.
Mais les normes, c'est un truc qui devient nécessaire d'imposer quand il y a beaucoup d'utilisateurs, pour améliorer la gestion de l'ensemble (comme pour l'automobile).
La meilleure des choses qui pourrait arriver selon moi c'est que Google impose ces normes. On y trouverait de l'intérêt et donc la standardisation serait plus rapide.
Pourquoi Google aurait il besoin d'imposer ces normes ?
à l'évidence, ces normes s'imposent d'elles mêmes, il suffit de lire openweb pour se rendre à l'évidence :wink:

après, si de nombreuses personnes se considérant comme des webdesigners, webmasters ou que sais je, trouvent que lire les recommandations est trop laborieux, en effet, c'est laborieux, mais c'est comme tout, le savoir c'est rarement inné !
 
WRInaute impliqué
on s'évade, on s'évade... et c'est bien dommage

Merci de diviser ce topic car le sujet de la discution tourne autour de: "Faut-il ou non privilégier sur les moteurs les site "aux normes"? "
 
WRInaute discret
Zim' a dit:
on s'évade, on s'évade... et c'est bien dommage

Merci de diviser ce topic car le sujet de la discution tourne autour de: "Faut-il ou non privilégier sur les moteurs les site "aux normes"? "
... Tu as raison Zim', la question de départ était "quels seraient les nouveaux critères de positionnement ?"

1. densité dans le corps de la pgae ? (pas plus qu'avant ?)
2. densité du mot clé cible dans les liens sortants ? (pas d'avis)
3. Importance des textes d'ancrage (en baisse ? à cause du Google Boming ?)
4. Importance d'avoir des BL vers les pages internes (+++)
5. Thématique des BL (++ - Faisabilité grâce aux outils AdSense ?)
6. Importance du domaine (trusty or not trusty)
7. Importance du contenu
8. Impact de la qualité technique (NON)

Pour compléter cela, le site qui est passé de n°1 à N°2 est :
- n°1 avec le filtre allintitle
- n°1 avec le filtre allintext
- n°1 avec le filtre allinanchor
 
Nouveau WRInaute
Je pense (on est plus dans la spéculation) que l'observation du comportement des visiteurs pour le classement des pages est un des axes de développement de Google. Déjà en oeuvre, et dans quelle mesure? Difficile à dire.

A travers l'analyse de la Google Toolbar.
Tu cliques sur un lien dans les SERP et si tu clique sur "précédent", c'est que le résultat ne te convient pas.
S'il te convient, tu y passe plus de temps tu as raison.

Mais tout le monde n'utilise pas la Google Toolbar ^^
 
WRInaute discret
Je me permet un avis sur une certaine mauvaise foi des surspécialistes à qui tout semble simple - j'en ai fait partie à un moment de ces prosélytes du w3c qui auraient bien exigé la l'amende ou la fermeture aux webmestres qui n'arrivent à faire du valid strict etc. Je continue à penser tout de même que si on sait comment faire, autant le faire bien. Mais bon, faut rester souple...

Szarah a dit:
Prenons donc un exemple simple : le mien :)
Je code avec le Notepad - si tu vois plus simple, n'hésite pas à le dire.
Ensuite, je soumets aux valideurs HTML et CSS du W3C, et je corrige. C'est online et gratuit.
Enfin, je teste sous IE et FF : gratuits tous les deux et plus courant, je ne connais pas.
Et donc c'est valide et ça fonctionne, sans prise de tête et sans bouquin à lire.

Super ! Et quand on veut pas en faire son métier de juste poser à grand'peine 4 pages, à moitié pourries techniquement car on n'aime pas les machines, pour se faire plaisir en donnant ses petites astuces uniques sur un sujet qu'on maîtrise à 100% ? Ca mérite une (bonne) place sur les moteurs... si on peut consulter les infos.

Attaquer les générateurs de HTML pourris oui, les gens qui se débrouillent vaillamment comme ils peuvent, ben je pense pas que ce soit une option...

Note : IE n'est pas dispo partout et pas pour rien (inclus dans la licence windows)
Plus simple que notepad, vi :) - je sais, pas forcément plus simple...

Szarah a dit:
Les normes, ce n'est pas fait pour rabaisser les gens, c'est pour monter le niveau moyen.
Et encore une fois : on est d'accord en gros.
Bah je dirais que souvent les normes c'est fait pour verrouiller les gens ou se donner une légitimité. Moyennant une lourdeur en plus. Le grand jeu de l'informatique de toujours, c'est que chacun se fait ses normes et après essaie de les imposer pour faire c... la concurrence qui doit s'aligner (voir m$ ou cisco ;))
Le w3C etc c'est différent... Mais au vu du monde réel, ce serait réserver le web aux spécialistes et s'enfermer avec un ticket d'entrée inabordable pour la majorité.

Szarah a dit:
(comme pour l'automobile).
La comparaison avec la voiture/permis reviens une fois de plus, j'en profite... Je la trouve sincèrement foireuse : on a surtout fait un permis pour que les gens ne se TUENT pas. Sur le web, les dangers sont très virtuels...
A quand le permis de respirer ? Pour apprendre à pas exposer son haleine de phoque au nez des gens, ça perturbe les réunions de travail c'est moins efficace :D

Bon allez je retourne à ma corde pour me pendre... elle a dû finir de se télécharger...
 
WRInaute accro
Sunflower a dit:
A quand le permis de respirer ?
A chaque fois qu'on impose un règlement, les gens râlent au nom de la liberté.
Mais ils passent le permis de conduire, ils trient leurs déchets, ils arrêtent de fumer dans les lieux publics, ils dressent leurs chiens au caniveau ... on les matera aussi sur le Web :)

La popularisation de n'importe quoi met fin à la liberté librement consentie à soi comme aux autres (feue la Netiquette) pour faire place aux règlements : c'est un classique. Mais bon, ce n'est pas pour tout de suite et certains vont trop vite pour tenter de gérer ce qui est encore ingérable - la CNIL, tiens, bel exemple de tentative de contrôle fichue à l'eau par l'explosion du nombre de gens à contrôler.

Côté code Web, il n'y aurait pas besoin de normes si les navigateurs étaient réellement compétents et si les gens cessaient de vouloir mettre en forme. Déjà là, tu tapes n'importe quoi dans une page que tu nommes .htm, pas besoin de Doctype! ni de balise <html>, un bon navigateur va te montrer ça relax ... mais faut oublier la mise en forme, le référencement et ce genre de trucs. Ou alors, tu fais du .pdf ou du .doc - lus par plugins privés mais tu les as, ta mise en forme et ton référencement.
Contrairement à ce que tu crois, les normes, c'est accessibilité pour tous, gratuitement, il n'y a pas plus démocratique. Faudra y passer ou le Web finira par se privatiser.
 
WRInaute impliqué
wullon a dit:
Privilégier les sites qui respectent le W3C, ce n'est clairement pas pertinent selon moi.
Ces sites-là s'auto-pénalisent déjà en ne "facilitant" pas le crawl et en étant différents de la grosse majorité des sites (un peu comme les sites en Flash par exemple), pas la peine d'en rajouter.
Que veux tu dire là ?
un site "W3C compliant" serait il si différent d'un site banal ?
en terme d'aspect et d'ergonomie ?
 
WRInaute accro
Non, pas du tout.

Il me semble qu'en général, on dit "si votre site est W3C compliant, il sera bien crawlé", ce qui n'est pas tout à fait vrai, mais que je comprend pas "un site bien structuré et sans erreur de code sera bien crawlé".

C'est à mon sens le seul intéret - vis à vis du référencement - de faire le contrôle de ces pages et de s'arranger pour qu'elles soient OK : si toutes pages sont OK, on peut se dire que normalement GoogleBot et ses amis passeront sans problème.

Par contre, si un site est "crado" niveau code, ce ne sera peut-être pas le cas. Mais c'est le problème du site (par exemple si le contenu réel est dillué dans 3 tonnes de tables, et que cela le pénalise, tant pis pour lui), pas la peine de rajouter un critère spécifique et distinct "W3C OK ?" pour faire un classement, selon moi.
 
WRInaute impliqué
Pour l'explication, merci !
j'avais du mal à comprendre, malgrè au moins 3 relecture ...
wullon a dit:
pas la peine de rajouter un critère spécifique et distinct "W3C OK ?" pour faire un classement, selon moi.
je pense que c'est évident !
de toute façon ... actuellement, je doute que le "classement" des résultats tienne compte de la validité ...
et ça ne risque pas de changer :wink:

ensuite sur les conséquences du "codage crado",
on a le même avis je pense, comme Maxwell : «inutile d'en rajouter»
 
Discussions similaires
Haut