Quelle est la bonne densité ou répétitions de mots clés ?

WRInaute passionné
On a beau être sur Wri depuis un moment, et voir les google danses défiler, il reste des questions essentielles qui restent sans réponses.

J'ai été surpris de voir que je suis premier sur plus de 9 M de pages sur un thème concurentiel, bien que la requete ne soit pas trop demandée.

La requete est sur deux mots simples, sans tirets.

Lorsque je regarde le cache de la page, je m'aperçois que les mots clés de la requête sont presents un certain nombre de fois, mais pas trop (3) plus le title qui est sur 5 mots

J'aurais voulu avoir des avis sur cette densité, ou plus lisiblement le nom de fois à partir duquel celà devient un critère négatif. (qui est different de la densité - mais ce critère est hélas à calculer)

Les Avis des spécialistes du test sont les bienvenus ;-)
 
WRInaute passionné
En fait, je crois que ça dépend des keywords. Par exemple, une densité élevée sur "mangeur de cigogne" ne sera pas perçue comme aggressive alors que sur "sex", "mp3" ou "DivX" ça peut porter préjudice.

Par contre, il semble qu'une densité de 20% soit le max pour une page. Par contre, sur ma cigogne, je suis monté à 40% pour voir et j'ai remonté un gros paquet de positions, sans doute grâce à ça.
En fait, même à 20% ta page ne va pas ressembler à grand chose et tu seras bien positionné mais tu feras fuir les visiteurs.
 
WRInaute discret
j'ai vu des bons positionnements pour des densités de 10 à 50 % sur le contenu, et de 30 à 100% pour le titre, ceci pouvant etre étendu en fonction du PR
 
WRInaute impliqué
D'apres une étude americaine, et selon mes propres constatations, la densité de mots-clé ideale est aux alentours de 2.5%. Etude faite sur des requetes non concurentielles.
Si on etudie des requetes comme "sonneries" ou "sex", les resultats sont faussés par les nombreux scripts de spamdexing.
Pour des requetes normales, on s'eloigne des premieres places quand on depasse 3%.
De toute facon, à partir de 7 ou 8%, ca sent la sur-optimisation et c'est normal que ce soit penalisant.
Attention, il faut bien garder à l'esprit que c'est juste des constatations, et pas une loi exacte. Il y a biensur de nombreuses exceptions, et je pense que ca varie enormement avec le temps.
 
WRInaute discret
j'ai des textes hyper naturels, avec du 13%, et on est jamais sur optimisé, cela ne sert à rien de se créer de telles barrieres, est-ce que cette étude a pris en compte le PR et la nature des liens entrants, sinon, je pense qu'elle ne peut etre relevante
 
WRInaute passionné
Il est normal qu'une étude trouve ce genre de chiffres (2-3% de densité) car la plupart des sites ne sont pas hyper optimisés.
 
WRInaute impliqué
Non, c'est une étude sur la densité de mot clé des sites sur les premieres pages de Google. Ce serait idiot de prendre en compte le PR ou les liens. La seule chose que l'on peut retenir de ce genre d'etude (en analyse graphique par exemple), c'est:
X% des sites en 1ere position ont Y% de densité de mots-clé.
Par exemple avec 13%, statistiquement, tu as extremement peu de chances d'etre dans les 2 1eres pages. Mais comme je disais, ce ne sont que des statistiques...
 
WRInaute discret
aucune valeur donc, dans un objectif d'optimisation référencement, je suis sur que sur la 10 ieme page c'est exactement pareil
 
WRInaute impliqué
Disons qu'au dessus d'un certain seuil, tu vas être pénalisé, quels que soient tes backlinks ou ton PR, et c'est bien normal. Donc c'est interessant d'etudier la densité indépendemment des autres critères. Et le fait est que les meilleurs positionnement ont souvent en commun une densité de mots clé proche de 3%; c'est tout à fait verifiable. Donc j'accorde une grande importance à la densité de mots clés. Bien plus qu'au PR par exemple...
 
WRInaute discret
vpx a dit:
Disons qu'au dessus d'un certain seuil, tu vas être pénalisé,.
tu as vu cela ou ??, j'ai un exemple de 100% de densité pour une requete 6ieme sur 350000

et comme a dit thickparasite, ton exemple n'est pas bon, n'hésite pas a mettre plus...
 
WRInaute passionné
Lorsque je regarde la denisté avec l'outil de WRI j'obtiens zero, c'est à dire qu'il n'y a que trois fois les termes de la requete, liens H1 et title et rien en meta, ils representent un poids minimum,

Mais pas de bl (externes) sur cette page avec ces termes là.
des BL internes puisque c'est un menu
le Pr est de 6

Je suis en train de faire de même sur d'autres mots clés ou la densité était visiblement trop forte, position > 30 sur moins de 200.000 sites (contre 1er sur 9.000.000) et ce dans les mêmes conditions notamment element de menu avec H1 et title et texte

A suivre
;-)
 
WRInaute discret
étude très interessante, continuez !!! Et merci beaucoup.

La densité me préoccupe bcp ...

J'ia fait quelques tests avec des pages ayant quelques BL internes avec le mot-clé en texte, pr 2, densité proche de 70% (page + titre + meta), ben je suis dans les premiers sur "mot1 mot2" et pas présent (je marrète au bout de 10 pages) sur mot1 mot2 ...

Qu'en retenir ... Ma page contenait comme titre "mot1 mot2", en meta description "mot1 mot2", en eta keyword "mot1 mot2" et dans la page "mot1 mot2" et aussi "mot1" puis plus loin "mot2" ...
 
WRInaute accro
j ai remarqué le meme genre de chose. je m apercois que des pages sortent super bien sur des requetes en ayant un nombre tres limité d'occurence du mot clé. genre 1 fois dans le titre, une fois dans la description et deux a trois fois dans le coprs de page. affaire a suivre..... ( et a rapprocher à la discussion redirection - outil du référencement ). a+
Hervé

<edit kmacleod : ajout de l'url>
 
WRInaute discret
Je connais des sites qui ont des densités de 25%-35% sur toutes leurs pages et ils sortent dans la première page, 30% c bcp n'est ce pas c même exagéré mais le résultat est là ;)

A+
 
WRInaute accro
cette théorie du "nombre d'or" de la densité tiendrait la route dans un environnement "stable" et "figé".. Mais comme j'ai dans l'idée qu'ils sont plus malins que ca chez google, ca peut etre 10% aujourd'hui, 20% demain et 30 a la fin du mois ;-)

(et je pense que c'est encore plus complexe que cela)
 
WRInaute occasionnel
Je pense qu'il faut prendre en compte le nombre de mot contenu dans la page.

Si le mot clé est contenu dans le titre, dans les metas et dans le corps de la page.

Mais que ce dernier ne contienne qu'une dizaine de mots (description d'une photo par exemple)

On peut arrivé facilement à 30% et se ne sera pas de la suroptimisation.

Par contre si on à une page qui contient 5000 mots et que l'on à toujours 30%
Là c'est sur il y a suroptimisation du mot clé.
 
WRInaute impliqué
attention
je ne pense pas que cela vienne de la densité
mais plutot du couplage de mots
en effet il est très fréquent d'arriver à se placer sur une requete composée
de plusieurs mots très facilement.
il faut aussi tenir compte des mots tapés et de la facon de les taper.

je m'explique :

si tu as tapé : mot1 mot2
alors il y a peut être 9 millions de résultats mais cela ne veut pas dire qu'il y a 9 millions de résultats avec mot1+mot2 , donc autant la combinaison des 2 mots est super rare et de plus il n'y a pas de pertinence ailleurs.

deuxièmement
si ces mots sont peu concurrentiels comme tu dis, il suffit qu'un des 2 mots soient très courants pour obtenir de nb résultats mais peu de couplage avec le 2e mot.

enfin je sais pas si j'ai été claire :lol:
 
Discussions similaires
Haut