optimiser les mots-clefs

WRInaute occasionnel
Je lis des trucs a gauche et a droite et voici ce que je me demande : :roll:
¿ faut-il tenir compte du nombre de mots clefs employe dans les pages des "concurents" ? dit autrement, si la densite de mots clefs est de 2% en moyenne dans l´ensemble des pages traitant d´un meme sujet disponibles sur le web, faire 5% sera devallorisant en terme de positionnement car juge suspect.
¿ faut-il essayer d´employer les mots clefs les plus souvent associe dans l´ensemble des pages web disponibles sur un sujet ? dit autrement, si la majorite des sites parlant de cuisine parlent des sauces, faire un site sur la cuisine occultant les sauces sera devalorisant pour le positionnement sur la requette cuisine car juge non exaustif
Merci de m´eclairer
 
WRInaute occasionnel
Mhhhh bonnes questions :D

Moi j'essaye tjrs de mettre un petit peu plus de densité que mes concurrents, et j'analyse ceux qui sont devant moi.

Mais bon apres savoir si l'algorythme de GG varie selon les requetes, c'est dur a démontrer je crois !
 
WRInaute discret
PeeWee a dit:
Mhhhh bonnes questions :D

Moi j'essaye tjrs de mettre un petit peu plus de densité que mes concurrents, et j'analyse ceux qui sont devant moi.

Mais bon apres savoir si l'algorythme de GG varie selon les requetes, c'est dur a démontrer je crois !

je fais pareil, le coup des 2%, 5%, etc ... est très réducteur, je doute que google dispose de critères aussi arrêtés.

va voir http://www.realposition.com et étudie les archives (plein de requêtes de toutes sortes avec le détail des décompte et densité), tu verras que c'est très variable, je pense que ça dépend dans une large mesure de la convoitise qu'attire la requête que tu vises.


wizzman.
 
Nouveau WRInaute
lambda a dit:
faut-il tenir compte du nombre de mots clefs employe dans les pages des "concurents"
Oui il faut tenir compte de la concurrence, et principalement des sites mieux positionnés :wink: à travers deux angles : le contenu (les mots clés) et le linking (origine et qualité des liens). raisonner en % de densité de mots clés n'est pas une fin en soi car justement le linking est important mais c'est important pour calibrer les contenus et se mettre à niveau par rapport à la concurrence

lambda a dit:
faut-il essayer d´employer les mots clefs les plus souvent associe dans l´ensemble des pages web disponibles sur un sujet
il faut que les mots clés représentent le contenu réel du site, mais tant qu'à faire, on souhaite avoir des visiteurs, donc être positionné sur des mots clés fort recherchés. Mais pour y arriver il ne suffit pas (toujours) de saupoudrer sur un contenu un peu de MC par ici, un peu de MC par là ...la thématique de mots clés émerge du contenu. du coup, pour reprendre ton exemple Ce n'est pas parce que les autres sites parlent de sauce que tu dois impérativement être visible sur ce mot clé .. ceci dit, si tu souhaites être visible dessus développe alors du contenu sur ce thème (sauce poivre vert, sauce chasseur, ...)
 
WRInaute occasionnel
j´ai emis l'hypothese que gg, avec mon exemple de cuisine avec ou sans sauce, considere mieux un mot clef(cuisine) avec certains mots clefs associes (sauce, poele......).

parler de dvd sans le mot film ou musique est moins valorise que dvd tout seul car l'imense majorite des site ayant le mot clef dvd parlent aussi de musique. si 2 pages sont exactement identiques avec les mots clefs aux meme endroits mais avec ou sans ces mots clefs periferiques sont considerees comme ayant le meme poids.

la strategie de gg n'est-elle pas de placer en tete le site le plus representatif de ce qu'il y sur le sujet ? Comment peut-il faire autrement qu'en considerant sur l'ensemble du web quels sont les mots clefs associes les uns aux autres sur une majorite de pages ? bref, si je tape cuisine (requete large), il sortira la page avec sauce preferenciellement car il aura vu que la majorite des sites parlant de cuisine parlent aussi de sauces contrairement a celui qui parle de meuble.
 
WRInaute accro
et a la fin tout bien pesé dans tous les sens on conclut qu'il n'y a rien a conclure et que finalement les pages écrites dans un langage naturel et compréhensible ne sont pas plus mal placées que les pages optimisées au millimetre
 
WRInaute impliqué
lambda a dit:
j´ai emis l'hypothese que gg, avec mon exemple de cuisine avec ou sans sauce, considere mieux un mot clef(cuisine) avec certains mots clefs associes (sauce, poele......).

Tout a fait.
Dans mon domaine, une requête "minéraux" ds google donne que des sites sur les objets (pour la collection/science).

yahoo! est encore pollué lors de la même requête par des sites d'engrais min*raux, eaux min*rals, de compléments alimentaires min*raux, d'info divers sur les sels min*raux, les oligo-éléments min*raux, etc. Tout des requêtes logiques sur plusieurs mots.

Il y a bien un filtre chez GG... Très utile d'ailleurs et qui renforce la pertience des requêtes
 
WRInaute occasionnel
Erazor a dit:
et a la fin tout bien pesé dans tous les sens on conclut qu'il n'y a rien a conclure et que finalement les pages écrites dans un langage naturel et compréhensible ne sont pas plus mal placées que les pages optimisées au millimetre
je souhaite ne pas me cantoner au niveau de ton avatar :lol:
 
WRInaute occasionnel
plus serieusement, au niveau de tes mots clefs, cela ne se percoit pas. pour les miens, jái l' ímpression que certains classement son irrationnel si lón considere les classiques PR, BL et tout le toutim
 
Nouveau WRInaute
J'aurais tendance à penser comme Erazor, à une différence près : à contenu textuel identique, une page dont la structure est optimisée; même simplement (titre et h1 bien rédigés, mots-clés importants en début de page etc...), aura davantage de chances d'être bien placée.
 
WRInaute discret
lambda a dit:
j´ai emis l'hypothese que gg, avec mon exemple de cuisine avec ou sans sauce, considere mieux un mot clef(cuisine) avec certains mots clefs associes (sauce, poele......).

Bonsoir,
sincèrement je doute qu'un moteur de recehrches quel qu'il soit puisse "imaginer" des associations de mots au même titre que le cerveau humain qui jusqu'à nouvel ordre possède ce que ne possède pas le robot : l'intuitivité.
a+
 
WRInaute occasionnel
weborientalpointcom a dit:
sincèrement je doute qu'un moteur de recehrches quel qu'il soit puisse "imaginer" des associations de mots au même titre que le cerveau humain qui jusqu'à nouvel ordre possède ce que ne possède pas le robot : l'intuitivité.
il n'a pas a imaginer, le contenu de nos pages (nous les webmasters)suffit ! je suppose qu'il analyse un echantillon de pages representatif et retient les autres mots. Je suppose bien ce que cela represente en terme de puissance informatique mais c'est peut-etre le prix selon gg de la pertinence des resultats. bref, je suppose beaucoup

Comment adwords et overture suggerent des mots clefs (sauces, condiments......) apparentes a un mot clef (cuisine) si ce n'est en analysant le contenu de pages contenant ce mot clef(cuisine) :?:

Si le webmaster se trouve sur un secteur tres tres concurrenciel, il ne percevra peut-etre pas cette notion de mots clefs se renforcant les uns les autres car il les emploi naturellement. Au contraire, s'il est sur un secteur peu rabattu onc avec peu de pages , les mots clefs sont tres eloignes les uns des autres et il sera difficile de les associer naturellement. j'ai vu une sorte de moteur presentant cela. Il ressort les mots sous forme d'une croix (si quelqu'un voit ce que je veux dire, merci de me rappeller l'adresse).
 
WRInaute impliqué
Une question sur la densité a été posée sur un autre forum il y'a quelques jours, et j'ai eu l'occasion de développer un peu le sujet.

En résumé, utiliser la densité de mot clé pour "améliorer" son référencement ne sert à rien. Parce qu'aucun moteur ne raisonne sur la densité de mots clé, qui est un critère que personne de sérieux ne retiendrait comme critère de pertinence. Si quelqu'un venait malgré tout à le faire, il se retrouverait rapidement avec un problème gravissime de spam d'index.

Donc, comme l'ont conseillé plusieurs personnes, le mieux est d'observer les pages de ses concurrents mieux placés, notamment le nombre de mots correspondant à la requête contenu dans la page. Il convient également d'observer la distance entre les mots (les mots apparaissent ils dans le même ordre que la requête, et sont ils séparés ou non par d'autres mots ou mots vides).

Par ailleurs, pour en revenir à ce que dit lambda, oui, il est assez facile de déterminer la thématique d'une page, et de déterminer les mots les plus proches sémantiquement avec de simples calculs statistiques...

Par contre, on ne sait pas si la technique que décrit lambda est réellement employée par Google. On a spéculé pendant des années sur le pagerank, hilltop, blockrank et maintenant les nouveaux délires sur "l' analyse temporelle des liens", sans s'intéresser au reste de l'algo, qui est tout aussi important...

Pour utiliser la méthode imaginée par lambda, il faut faire ce que l'on appelle une analyse en "n-grams" des textes, et faire des calculs de co-occurrence. Cette méthode est connue pour être assez gourmande en calcul, et dans les seuls cas où elle a été "officiellement" utilisée, c'était en
complément d'autres méthodes.

Mais pourquoi pas... dans ce cas, effectivement, le "sens" des mots et leur proximité linguistique prend de l'importance. Mais il est assez difficile de le savoir, car même la méthode bête du "sac de mots" donne aussi l'impression que la thématique compte, puisqu'il y'a un calcul de "similarité linguistique" entre la requête et la page.
 
WRInaute discret
Bonsoir,
sincèrement je doute qu'un moteur de recherches quel qu'il soit puisse "imaginer" des associations de mots au même titre que le cerveau humain qui jusqu'à nouvel ordre possède ce que ne possède pas le robot : l'intuitivité.
a+

Je seconde!
Comment voulez-vous que Google sache qu'un site qui enseigne l'art de cuire un pain chez soi, ait quelconque pertinence avec un site qui vend du Thon en conserve!
 
WRInaute impliqué
Et pourtant !

Les techniques de classement automatique des pages en fonction de catégories définies par leur "sens" existent, cela s'appelle le "clustering sémantique". Et cela marche très bien.

D'ailleurs Page (celui de Google) avait pondu un article sur le sujet en son temps.

En attendant, pour info, c'est exactement ce que fait google pour les adwords et les adsense...

Les clients choisissent des mots (pas des thématiques), ces mots permettent de déterminer quel type de pages doivent être ciblées, et les pubs apparaissent de manière contextuelle en fonction des mots clés choisis...

En fait, la plupart des gens pensent qu'il faut que le programme "comprenne" le sens pour déterminer quel mot va avec quel autre... En fait, on se débrouille très bien avec des outils statistiques et les probabilités.

Donc oui, le programme qui "comprend" un texte n'est pas inventé, mais celui qui sait que "thon à l'huile" à un rapport avec la "cuisine" et la "nourriture", existe depuis les années soixante dix !!
 
WRInaute occasionnel
cariboo a dit:
En résumé, utiliser la densité de mot clé pour "améliorer" son référencement ne sert à rien.
peracelse ou quelque chose comme ca - medecin grec antique a dit:
tout est poison, rien n'est poison, tout depend de la dose
je me dit qu'en etant juste un peu plus que la moyenne des autres en mots clefs ne peut qu'être benefique. citation valable aussi pour le chocolat des uns et les carottes des autres
Merci cariboo de nous faire partager tes lumieres ! A l'occasion j'aimerai savoir a quoi correspond la methode du "sac a mots".
A+
 
WRInaute impliqué
lambda a dit:
A l'occasion j'aimerai savoir a quoi correspond la methode du "sac a mots"

C'est un nom imagé pour le "modèle vectoriel de Salton". Dans cette méthode, on ne garde pas la structure du texte, on le "tokenize" (on le découpe en mots isolés), on prend tous les mots, on les met dans un sac (c'est une image évidemment), on peut secouer le sac pour mettre les mots dans le désordre, on vide le sac, on compte les mots, et on fait des statistiques de fréquences et on note les occurrences des mots dans chaque sac (chaque document).
 
Discussions similaires
Haut