Article mis à jour le 09/01/2015, publié initialement le 14/09/2009
Le meilleur indice de densité de mots-clés pour Google
Alors, c'est combien la meilleure densité ? Je lis ou entends en formation que l'indice idéal tourne entre 2% et 8% selon les "experts"... Certains avancent même des nombres supérieurs, entre 10% et 20%. Essayez de lire un texte avec 1 mot qui revient une fois sur 10 et demandez-vous s'il vous semble vraiment naturel...
En guise d'introduction, j'ai listé quelques exemples d'indices de densité mesurés par alyze.info (un outil d'un membre de WebRankInfo au passage). J'ai choisi uniquement des "mots-clés" constitués d'un seul mot sans accent (vous comprendrez pourquoi en lisant la suite de cet article), pour lesquels le site analysé arrive en 1er dans Google. Je n'ai donc analysé que des pages qui sortent en 1er dans Google : elles sont censées être bien optimisées pour le référencement ;-) Pour information, ces analyses datent de septembre 2009, mais ça ne change rien.
J'ai pris des exemples de toutes sortes pour montrer qu'on peut réussir avec des indices de densité très variés... Parfois la page sort 1ère en raison du netlinking mais d'autres fois c'est pour des raisons purement linguistiques.
- pour "2006" : 0,7% (Wikipédia) tandis que pour "2008" : 6,7% (Wikipédia) : alors, c'est quoi l'idéal ?
- pour "shareware" : 0,5% (Wikipédia) : la page parle de "partagiciel"...
- pour "google" : 9% (Google.fr) et pour "yahoo" : 2,7% (Yahoo FR) : page dépouillée ou très chargée...
- pour "subprimes" : 0,3% (Wikipédia) : le mot est utilisé surtout au singulier...
- pour "allo" : 0% (Allociné.fr) car le site reçoit de nombreux liens avec dans le texte de lien les mots "allo" et "ciné" séparés...
- pour "manipuler" : 0% (Wikipédia) car la page utilise d'autres formes du mot (manipulation, manipulations, etc.)...
Attention ! Ces exemples ne cherchent pas à prouver quoi que ce soit, ils ne sont là que pour provoquer des réflexions. Par contre les arguments qui suivent démontrent qu'il est impossible de déterminer la densité de mots-clés idéale pour le référencement.
Le meilleur livre sur la rédaction web et le SEO !
Pour booster votre référencement par l'éditorial, achetez le livre Bien rédiger pour le Web d'Isabelle Canivet... Elle connait aussi bien les stratégies de contenu que le référencement, sans oublier l'analyse de l'audience. Ce livre fournit absolument toutes les ficelles pour générer plus de ventes ou conversions sur votre site, grâce au contenu. Avec 730 pages, c'est du complet !
Quand bien même il existerait un indice idéal...
Avec quel outil faut-il le calculer ?
Ceux qui donnent des valeurs ne disent pas avec quel outil les mesurer ! J'ai testé plusieurs outils pour le même cas, je n'ai pas obtenu une seule fois la même valeur précise ! D'ailleurs ces outils ne détaillent généralement pas leur méthode de calcul exacte.
Quelle est la véritable formule pour calculer l'indice de densité ?
Ceux qui parlent d'indice de densité donnent en général une formule très basique comme "nombre d'occurrences du mot-clé divisé par le nombre de mots dans la page". Comment faut-il faire pour calculer l'indice d'une expression de 3 mots ? Faut-il diviser par le nombre d'expressions constituées de 3 mots ? Ou bien par le nombre de mots ? Ou bien le calcul est-il plus complexe dans le cas d'expressions de plus d'un mot ? Ca non plus pas grand monde n'en parle...
Faut-il tenir compte des balises meta ? de la balise Title ?
Là aussi, ceux qui donnent des valeurs ne disent généralement pas précisément quelle partie de la page HTML doit être analysée... Faut-il inclure le titre HTML de la page ? Et les meta ?
Faut-il tenir compte du contenu utile de la page uniquement ?
On sait bien que les moteurs évaluent les différentes zones des pages (la zone de contenu réel, spécifique à chaque page, est identifiée et séparée de l'entête, du pied de page, des marges, de la zone de navigation, etc.). Ceux qui donnent des valeurs de densité de mots-clés ne précisent généralement pas si elles concernent la page entière ou l'article uniquement. De toute façon comment pourrait-on calculer de la même façon que l'algorithme du moteur, si on ne connait pas le découpage de la page effectué par le moteur ?
Faut-il tenir compte des stop words ?
Si oui, lesquels ? Ceux qui donnent des valeurs n'en parlent que rarement et personne ne se risque à donner la liste des mots vides utilisés par Google ou les autres moteurs...
Faut-il tenir compte du contenu dans le Flash ?
On sait que Google peut récupérer le texte des animations Flash, alors quand on calcule la densité de mots-clés, faut-il tenir compte à la fois du texte alternatif et du texte inclus dans le Flash ?
Faut-il tenir compte des accents ?
On sait bien que les moteurs savent gérer les accents, donc faut-il considérer comme différents ou identiques 2 mots avec et sans accent ? Sachant que le sens du mot dépend parfois des accents (par exemple marche et marché).
Faut-il différencier singulier et pluriel ?
On sait bien que les moteurs savent identifier les versions singulier et pluriel d'un même mot, alors faut-il considérer comme différents ou identiques un mot au singulier et le même au pluriel ? Ceux qui parlent d'indice de densité ne s'embarrassent pas avec ce genre de considération...
Faut-il différencier les formes conjuguées ?
On sait bien que les moteurs savent identifier les différentes formes conjuguées d'un même mot, alors faut-il considérer comme différents ou identiques un verbe sous différentes formes conjuguées ? Ceux qui assurent qu'il existe un indice de densité optimal n'abordent pas ce genre de problème...
Faut-il tenir compte du nombre d'occurrences sur le web ?
Ceux qui calculent la densité de mots-clés d'une page font abstraction du reste du web. Pourtant le plus élémentaire serait de tenir compte à la fois de la fréquence des mots dans une page ET de la fréquence de ces mots sur l'ensemble du corpus (c'est l'idée du fameux TF IDF). En gros, si on imaginait qu'il existe un indice idéal, il serait différent pour chaque requête étudiée et changerait au cours du temps en fonction des publications sur le web...
Y a-t-il une densité idéale de mots-clés différente pour un site éditorial et un site marchand ?
Je ne sais pas... demandez à ceux qui pensent que ça existe ! En réalité ce n'est pas un sujet qu'ils abordent, pourtant il est évident qu'on n'applique pas les mêmes optimisations pour un site éditorial et pour un site marchand... Ca peut dépendre aussi des mots, par exemple si la densité idéale existait, elle serait sans doute différente pour des noms communs et pour des noms propres, non ?
Conclusion : il n'y a pas d'indice idéal !
L'indice de densité optimal n'existe pas !
Si après tout ça vous croyez encore tout ce qu'on vous raconte sur l'indice de densité idéal... alors je n'essaierai plus de vous convaincre :-) J'ai d'autres arguments mais ce serait trop long de les détailler ici.
Vous l'avez donc bien compris :
D'ailleurs l'indice de densité n'est même pas pris en compte par les principaux moteurs.
Nombre de répétitions minimum et maximum
Même s'il n'existe pas d'indice de densité parfait, vous vous doutez bien qu'il y a quelques règles à suivre malgré tout :
- Nombre de répétitions minimum (occurrences) : si vous avez bien suivi les conseils de base du référencement naturel, vous savez que vos mots-clés doivent se trouver dans la balise title, si possible dans la meta description, dans un titre h1 et peut-être dans des h2, dans le corps de la page, si possible dans des liens sortants, peut-être dans le fil d'ariane, et enfin si possible dans l'URL... Bref il y a un minimum vital de répétitions de vos mots principaux.
- Nombre de répétitions maximum (ou indice de densité maximum) : tant que votre texte reste lisible et naturel, vous n'aurez pas de problème. Mais si vous répétez à outrance vos mots-clés, vous pourrez être repéré par les moteurs car votre texte sera reconnu comme artificiel (algos Panda et Pingouin).
Mais quelles sont donc les bonnes solutions de rédaction web SEO ?
Si vous souhaitez savoir ce qu'il faut faire pour écrire de façon efficace à la fois pour les internautes et le référencement, venez participer à ma formation sur le référencement éditorial ! En attendant, lisez au moins mes conseils sur la rédaction web optimisée pour le référencement...
On discute de la densité de mots-clés idéale pour le référencement naturel dans le forum Référencement éditorial de WebRankInfo.
PS: au fait c'est quoi l'indice de densité de cette page pour la requête "indice de densité" ? :-)
L'avis de Matt Cutts en vidéo
Voici une vidéo enregistrée pendant l'été 2011 et publiée en décembre 2011, dans laquelle Matt Cutts explique que l'indice de densité est "une mauvaise conception du référencement". Il explique qu'il faut bien entendu répéter un minimum de fois les mots les plus stratégiques mais qu'il ne faut pas chercher à répéter à outrance. Dans ce cas extrême (keyword stuffing) c'est même contre-productif. En clair, il faut écrire naturellement.
Faut-il tenir compte du contenu utile de la page uniquement ?
On sait bien que les moteurs évaluent les différentes zones des pages (la zone de contenu réel, spécifique à chaque page, est identifiée et séparée de l'entête, du pied de page, des marges, de la zone de navigation, etc.). Ceux qui donnent des valeurs de densité de mots-clés ne précisent généralement pas si elles concernent la page entière ou l'article uniquement. De toute façon comment pourrait-on calculer de la même façon que l'algorithme du moteur, si on ne connait pas le découpage de la page effectué par le moteur ?
@Mr Olivier Duffez
J'ai posé la question: "Si on va calculer la densité d'un mot dans une page web, est-ce-qu'on va inclure les répétitions au sein du Title, meta Description et les Hx?" car j'ai pas bien compris la section "Faut-il tenir compte du contenu utile de la page uniquement ?". C'est un peu flou. Non?
A propos de la question "Faut-il tenir compte des accents ?" pour moi la réponse c'est OUI car avec Adwords (générateur de mot-clés) il affiche des résultats différent qui saute au yeux, lorsque vous l’écrivez avec un accent ou sans. (Donc a voir)
Merci pour cette clarification. Vraiment, cette notion de densité me guide à chaque fois que je me mets à écrire. Je souhaite qu'elle n'ait pas prise en compte par Google.
Si on va calculer la densité d'un mot dans une page web, est-ce-qu'on va inclure les répétitions au sein du Title, meta Description et les Hx?
@nounou : apparemment la clarification n'a pas suffi ;-) sinon pourquoi demander comment calculer la densité ?
Cet article (très complet, au passage) me rassure : cela fait quelques temps que j'essaye d'en apprendre le plus possible sur le référencement, mais j'ai mis avant tout un point d'honneur à ne jamais dénaturer mes textes et à écrire avant tout pour les internautes et non pour le référencement.
Mais une pseudo connaissance "douée" en référencement m'avait affirmé que mon indice de densité n'était pas élevé et ne valait rien. Sur le coup, j'avais beaucoup douté, mais vous venez de me confirmer que de tout évidence, cet indice n'est pas du tout le plus important...
J ai bien compris
Et je parlais bien de 45% par page.
Quels sont les bases du seo?
Que faut il comprendre et comment optimiser une page par rapport aux mots clés ?
Comment rechercher ses mots clés ? Les vrais
De combien de mots clés et de caractères maxi dois mettre sur une page ?
Je t'invite à lire mes dossiers, notamment la partie rédaction.
Merci d avoir répondu si vite
Pour info j avais le nom de domaine avant eux
Secondo, on est concessionnaire peugeot scooters enciennement peugeot motocycles.
Sinon
Je me suis penche sur les mots clés Google
J ai tout sélectionné
J ai fais comme si je faisait une campagne
Je les aient sélectionné dans l ordre
Mots clés élevé et nombres de clic par jour
Du genre le mots cle scooter 44 clic par jour
Et je vais les lettres dans un ordre genre plus de clic vers les plus petits clic
Et ça le donnerait selon Google 700 visites par jours avec 100 mots clés composé de 3 mots
Et cela par jour
Mais ma question avant de faire des bêtises car on avait 300 visites par jour et depuis penguin
On était descendu à 100 visites par jour
Depuis que j ai refait tout le site, en 2 mois on est remonte à 200/ jour
J ai écris à Google et ils m ont répondu que pas de spam pour notre site
Donc ma question est : combien de mots clés avons nous le droit de mettre dans les META keywords??
@Franck : je ne suis pas juriste donc je ne ferai plus de commentaires sur cet aspect (marque dans le nom de domaine). Sachez simplement que si vous deviez cesser d'utiliser ce nom de domaine, vous perdriez tout l'historique de votre référencement, ce qui est plutôt grave.
pour les mots-clés : le SEO ne fonctionne pas du tout comme ça. On ne "met" pas des mots-clés dans une page, une page est constituée de phrases que lisent les internautes. Car la balise meta keywords est totalement ignorée !
Bonjour,
Sur le site peugeot-scooter.fr que je gère, j ai une densité de mots à 45%,
C est pas bon alors?
Plus je bosse et plus je perds des places sur Google.
J' au besoin de conseils si quelqu' un peu analyser la page d'accueil et me donner un exemple à ne pas faire ce serait super sympat, même les mots clés avec Google me font perdre les visites journalières.
Un coup je remonte dans le classement en 1 ére page et un autre coup je perds ce classement en ayant plus de visites...
Comment optimiser le texte et à combien de mots clés répétés avons nous le droit dans une page web?
d'après une connaissance qui fait du seo, il ne faut pas plus de 15% de densité, je vais suivre son conseil mais comment régler le générateur de mots clé Google afin d obtenir les bons mots clés afin d'obtenir un nombres de visites qui vaillent la peine?
@Franck : la densité de mots ne se calcule pas par site mais par page. Je suppose qu'elle ne peut pas être de 45% car ça voudrait dire qu'un mot sur 2 est ton mot-clé... Il faut absolument écrire pour les internautes et ne pas se focaliser sur LE mot-clé à optimiser pour la page.
Mais la 1ère chose à faire pour ce site est sans doute de changer de nom de domaine avant d'avoir un procès pour utilisation non autorisée de marque déposée. Car dans ce cas tu perdrais tout.
Ce constat montre que les études "unifactorielles" qui pullulent dans les labos SEO n'apportent pas grand chose, surtout quand on sait que des centaines, sinon des milliers de facteurs joue sur le positionnement d'une site, et surtout que certainement un bon paquet sont interdépendants. bref, un peu comme si on concluait que mâcher du chewing gum augmentent le risque du cancer de la prostate parceque 3 types l'ont chopé sur un échantillonnage de 50 gros machouilleurs.
A quand une véritable analyse "multifactorielle ?
A mon avis, l'indice de densité est de la "branlette intellectuelle", tout comme le pagerank : j'ai vu des pages ou des sites entiers se positionner sur une expression qui n'est même pas présente dans la page...
PS : je crois que l'avis de Matt Cutts en vidéo me fera toujours autant rire, quel que soit le sujet.
Dommage j'avais justement prévu un article sur le sujet pour la semaine prochaine.
La raison en discutant avec une personne qui se disait "compétente en référencement naturel", elle m'a affirmé que pour elle cet indice était essentiel.
J'ai eu beau lui faire un exposé de 30 min, elle n'en a pas démordu.
Je vais lui donner le lien de l'article de suite, peut etre que ça aura plus de portée que mes paroles
Personnellement, j'utilise uniquement la technique éditoriale de liens avec un texte unique, et d'autres conseils assez basiques mais terriblement efficaces que j'ai trouvé dans un très bon bouquin sur le référencement naturel...
Quand Matt Cutts parle de courbe qui monte et qui descend, une parabole, ça ressemble quand même à si méprendre à si méprendre avec une plage de densité !
Il dit il faut un nombre minium de répétition mais pas de keyword stuffing, en gros il faut un pourcentage acceptable. Si on couple ça avec le White Hat recommandé, à savoir écrire naturellement un bon texte, sur des mathématiques on en revient à une notion de plage de pourcentage valable.
En gros mon interprétation c'est qu'il n'y a pas UN pourcentage optimal, mais une plage de pourcentages qui feront dire au moteur : "Ok ce texte est bien fichu". Evidemment, ces % doivent appeler d'autres % de synonymes puisque GG sait les reconnaître.
@Nead K. : tu peux peut être nous dire quel est le pourcentage idéal de mots clés pour être propulsé au top des résultats alors ?
@Olivier Duffez : concernant Wikipedia rien est prouvé bien sûr si ce n'est qu'ils ressortent sur énormement de requêtes, possible que ce soit avec leur linking naturel, la notoriété du site et quelques autres facteurs, mais le débat n'est pas là, la question est peut-on prendre Wikipedia en exemple et le comparer avec le site de monsieur tout le monde ou de la petite société du coin ? A mon avis bien sûr que non.
De plus Wikipedia doit bien arranger Google pour servir les résultats aux requêtes qui ne veulent rien dire comme "2006" ou "2008".
Dans ce sens une étude de sites plus classiques aurait à mon avis été plus pertinente.
Merci je me posais cette question il y a quelque jours et WRI à lu dans mes pensées...
Je sais qu'un article de blog optimisé pour le référencement doit faire entre 300 et 1000 mots avec "quelques" mots clés à l’intérieur mais je me demandais le pourcentage idéal de mots-clés.
Je le sais désormais grâce à ce site.
Merci
Bravo encore une fois à WRI, par rapport aux premiers commentaires de 2009, ce dossier sort toujours n°2 sur GG mais le n°1, c'est WRI aussi !!!
Pour ma part, je suis tout à fait d'accord avec cet article et je trouve très bien qu'il soit facilement accessible pour permettre à chacun de se renseigner sur les abus marketting de beaucoup de mauvais référenceurs.
Je suis complètement l'avis de SmartCenter qui insiste sur la richesse sémantique finalement beaucoup plus importante aujourd'hui que la répétition simple de mots clés.
Enfin, je remarque quand même qu'Olivier, tu continues à augmenter la densité, même à travers les commentaires (voir ton dernier commentaire contenant indice de densité), et plus que la densité, c'est la régularité qui est importante ici, je pense en effet important que le mot clé revienne régulièrement dans la page.
Alors à quand l'article sur l'indice de régularité ?
Je l'ai peut-être manqué...
Je suis ravi de voir enfin un tel article tordre le cou de nombreux argumentaires commerciaux mis en avant par bon nombre d'agences aujourd'hui. Enfin une valeur certaine sur le devant de la scène, vous ne pouvez plus oublier que ce sont vos clients qui lisent ce que vous êtes en mesure de leur fournir. Et en toute honnêteté ce sont parfois eux qui parlent le mieux de vos produits, alors donnez leur la parole et vos contenus ne s'en porterons que mieux... Merci à Olivier pour cette belle expérience/analyse objective.
@ Olivier :
Je corrige ce que je disais, car ca manquait: Rien ne confirme jusqu’à à lors l’existence d'un tel indice annoncé par GG, quoique il faut bien contrôlé l occurrence des mots clés dans une page et éviter de faire des abus.. Merci
Ton article est interessant mais je trouve que tu en dis trop ou pas assez... finalement, on se demande: la densité çà compte ou non?
ma propre réponse serait que, oui, évidemment c'est important: il faut une certaine "densité" de mots clés... mais il faut aussi que cela reste naturel à la lecture.. moi, je dirais: 2% de densité, cela me semble correct.. au delà, je trouve que cela fait trop.. (par contre petite précision: les mots avec et sans accent sont bels et biens distingués par google comme différents..)
Dernière chose: oui, l'optimisation des titres et tags est également très importante!
Et en général, il est également recommandé d'introduire des mots clés "relatifs" au mot clé principal...
"finalement on se demande si ça compte ou pas" : as-tu lu l'article ? voilà ce que j'ai écrit :
Si la question semble à mettre au compte des fantasmes du SEO, l'outil d'aide au référencement cité dans cet article est en revanche très instructif et révèle de bien surprenantes informations occultées à l'œil humain, notamment sous l'onglet "associations". On y voit bien le poids des éléments génériques du site dans une page, par rapport aux éléments d'information de la page elle-même, c'est assez frustrant… De plus et en ce qui me concerne, j'y remarque des combinaisons étranges, qui m'interrogent sur mon style d'écriture, pourtant communément apprécié chez les humains. J'ai probablement encore beaucoup d'efforts à fournir afin de séduire les machines.
Je suis d'accord avec @Annecyref et Nicolas. Moi les tartines avec 3cm de beurre je suis pas sûr de pouvoir y gouter.
L'indice de densité je ne m'en préoccupe pas, dans le sens ou je m'efforce d'abord d'écrire un bon contenu en gardant en tête que mon support reste le web. Donc j'écris pour qualifier mon contenu et remonter dans les SERP, sans faire une overdose de mots-clés.
Pour finir je rajoute de la confiture :)
Hum, je ne suis pas du tout convaincu par l'explication de Matt Cutts (ce ne serait pas une première)
Il glorifie un peu trop Google à mon sens ...
Google fonctionne avec ce que l'on appelle des ngrams. Je serais ravi qu'Olivier se penche sur la question du reste.
Les Ngrams sont un ensemble de mots (8 de mémoire pour google) qui constitue la base sémantique pour google.
Ces Ngrams permettent aux SERPs d'associer des concepts, et retirer des significations particulières (comme les homonymes par exemple)
Les Ngrams permettent de dresser une carte sémantique d'un texte en associant des concepts aux autres. La récurrence d'un concept (synonyme, répétition) permet lui donner une plus grande importance et de le considérer comme un mot liant.
Ce mot liant se doit être votre mots clefs sinon Google vous déclassera pour des contenus dans lesquels il est plus facile de déterminer le concept qui prime.
A creuser, mais on touche la L'ESSENTIEL du SEO writing.
En résumé, dans ce contexte, les N-grammes reposent sur une analyse des suites de N mots et c'est en effet sans doute utilisé par Google, entre autres nombreuses méthodes. C'est d'ailleurs déjà abordé sur WRI dans le dossier sur l'analyse des syntagmes par Google.
Le plus simple est à mon avis d'écrire naturellement avec une densité de plus de 0% ...
Concernant les exemple je trouve également qu'ils sont particulièrement mal choisi étant donné par exemple le crédit que porte Google à Wikipedia qui se place bien plius facilement que n'importe quel autre site... Les autres sont aussi des pointures et ne reflètent pas la réalité du webmaster lambda..
Qui a pu prouver qu'il y avait un traitement particulier pour Wikipédia ? Personne à ma connaissance.
Google tend à analyser la sémantique comme un être humain, et il y en a encore qui lui donnent à manger des mots clefs répétés comme à un robot des années 90.
Utilisez plutôt toute la richesse sémantique de la langue, et c'est là que le seo demande un supplément culturel.
Je suis d'accord, l'indice de densité n'est pas le critère le plus déterminant, mais encore une fois si on a pas de liens cela sert à positionner le site. Les exemples Allo Ciné et Wikipédia sont pour moi à mettre de côté car ces pages bénéficient d'un netlinking conséquent.
En gros si vous voulez une bonne tartine mettez du beurre et n'oubliez pas la confiture. ;-)
Donc en gros tu crois encore à l'existence d'un bon indice de densité ?
Comme expliqué dans l'article, il est beaucoup plus important de maximiser le champ lexical, et pour ça il y a des outils qui donnent les mots clés utilisés par les concurrents, et pas ou peu par nos pages. C'est très utile pour trouver des mots clés auxquels on n'avait pas forcément pensé (ou des synonymes).
Le "keyword stuffing" tel que les "hidden keywords" sont des techniques qui engendre un déclassement tôt ou tard.
Le "keyword stuffing" étant à mon sens le pas de trop d'une optimisation de mot clé au pourcentage.
Répondrez vous plus à la requêtes d'un internautes en répétant le mot clé plus de fois fois ? la réponse est généralement non, car votre texte tend inévitablement vers une lourdeur syntaxique qui mériterait de la part de votre prof de français un bon 5/20.
Très utile de respecter cette fameuse densité des mots clés. Rien ne confirme jusqu’à à lors l’existence d'u tel indice ou % .. Néanmoins, il faut penser à faire varier cette notion d'une page à un autre, un site à un autre de même en suivant une approche naturel et évitant les abus ..
@ Herve, un contenu plaisant est une obligation, il faut également penser engins ..
@webfirstrank : as-tu bien lu l'article ? car au contraire cela ne sert à rien de respecter une quelconque densité de mots-clés...
Faire des textes sur un sujet qui soient plaisant à lire pour les visiteurs, voilà le bon indice de densité pour un mot clé à mon avis.
Il faut avouer que cet article donne mal à la tête. mais il fait tout de même réfléchir. Il soulève toutes les problématiques liées à densité de mots clés idéale. Chacun de nous à dû faire au moins une fois un Benchmarking de la concurrence et se rendre compte rapidement que pour bien se positionner, il ne suffit pas de répéter un mot-clé, que d'autres critères entrent en jeu et rendent tout pronostique sur une valeur idéale impossible. je suis d'avis avec toi Olivier. Parce entre : la zone de contenu utile et les menus de navigation, les accents, les stop words, le pods de la balise Title, l'url de page, les backlinks... etc etc...Je pense que le calcul est possible. Mais il faudrait à ce moment là faire appel à une equipe d'expert pour s'entre sur pas mal de chose d'une part. Et d'autre part faire appel aux ordinateurs de la NASA.
Si on tient compte du diagramme de Salton en plus, où les expressions répétées dans un texte font perdre du poids au contenu de la page entière, on ne sait plus où se placer pour chercher à obtenir un résultat équilibré....
Le Naturel est riche en enseignements. L'indice de densité nous fait tomber dans un travail de référencement mécanique qui n'est pas forcément bon. Il faut être un artisan et travailler les sites au cas par cas, penser toujours à leur apporter une valeur ajoutée (de contenu)...
http://twitter.com/yagraphic/statuses/4348842554
Olivier, je comprends bien, mais provoquer la réflexion avec des requêtes du style "yahoo", "google"... Ce n'est pas ça qui va aider à penser que l'indice de densité n'est pas déterminant. Comme de la même façon, pour démontrer que le PR n'est pas (plus) important, on ne va pas dire que sur la requête "Yahoo", Yahoo.fr sort devant d'autres sites mieux pagerankés. Enfin je ne trouve pas que ce sont de bons contre-exemples...
OK pour yahoo et google. Mais pour les autres ? Au passage, il ne s'agit pas de contre-exemples...
Qu'en est-il de l'indice de densité des mots des anchor des liens !?
Je crois qu'ils prennent une place importante dans le positionnement d'une page pour une requète définie.
Es-ce considéré comme une sur-optimisation que de créer un menu contenant par exemple "Mot clé" Ville
Certes, cela fait grimper l'indice de densité d'une page, mais aussi le positionnement de la page pour une requete "Mot clé" Ville...
Je pense que c'est surveillé de près par Google, + qu'avant en effet. C'est avantageux pour les pages liées mais je pense que ça fait partie de la suroptimisation.
Tu as des retours d'expérience sur le sujet ?
PS: attention aussi au bourrage de mots-clés dans les anchor text des liens des commentaires sur les blogs ;-)
C'est vrai que c'est du flan l'indice de densité, comme les metas description,
Pour bien être référencé l'unique chose à faire c'est le netlinking et un bon titre...
Et naturellement la tache difficile, quand on va faire interagir le travail off-page au résultat-hypothèse de cette fantomatique densité (qui n'est d'ailleurs pas près d'etre objectivement prouvée), c'est le bon réglage des efforts combinés (chose très ardue puisque nous ne pouvons pas nous baser sur des données certaines).
Donc un algo qui opère en sachant ce qu'il fait qui joue contre des webmasters qui s'efforcent de trouver la route dans le noir à la lumière d'une chandelle, il n'y aura pas de "no contest" selon moi...
Article intéressant !
Mais je ne comprends pas l'intérêt des exemples en début d'article...
Si l'indice de densité est un critère pertinent, il n'est certainement pas le seul (et tout le monde peut en convenir).
La page avec un indice de densité de 0% a sans doute un bien meilleur trust et backlinking que ses suivantes dans le classement...
Une page avec un indice de densité de 2-3% a peut-être moins besoin de travailler ses critères off-page...
Le seul moyen d'en être certain et est de réaliser des tests sur des pages iso pour une même requête...
Des volontaires ?
@shoplifter : comme je viens de l'expliquer en commentaires, les exemples en début d'article servent à faire prendre conscience qu'il y a toutes sortes d'indices de densité qui permettent d'arriver en 1er. Parfois c'est en effet grâce aux critères off-page, mais parfois c'est pour d'autres raisons, notamment linguistiques (pluriel, synonymes, etc.).
Bon article, mais je trouve que les exemples sont mal pris. Les requêtes allo, Yahoo, Google ou autres ne sont pas les plus généralistes et ne sont pas des requêtes sur lesquelles chercheraient à se référencer des sites. Surtout quand le site qui sort premier a le mot-clé dans son Ndd, et est déjà très bien référencé.
J'aurais aimé qu'on regarde deux pages qui parlent par exemple du même thème sur un deux sites de notoriété équivalentes (comment la mesurer ?) et là, regarder ce qui se passe.
Les contre-exemples donnés ici seraient qualifiables de triviaux.
D'ailleurs, ils me font poser une question : les moteurs de recherche, au delà du référencement, n'attribuent pas des "noms" à un site ? JE veux dire, Yahoo, yaho, yah, yahooooo, yahou... renvoient tous sur la page Yahoo! Serait-il possible qu'au delà d'un référencement automatique, certains mots-clés sont attribués à un site comme une sorte de marque déposée ?
@Jip : les exemples ne cherchent absolument pas à démontrer quoi que ce soit, simplement à montrer qu'on peut arriver en 1er dans Google avec toutes sortes de valeurs de densité de mots-clés. Ils sont là pour "provoquer la réflexion" si je peux dire.
C'est inutile de chercher à démontrer quoi que ce soit sur la densité de mots-clés en se basant uniquement sur des exemples, car Google utilise trop de critères dans son algo.
En effet c'est bien des tests que vous faites: ce sont surement des choses qui cherchent à éclaircir le sombre qui règne sur l'argument, mais ceux-ci restent cependant des tests.
Comme dit Olivier les expressions au singulier et au pluriel sont deux choses complètement différentes, soit parce qu'ils donnent totalement un autre sens à la signification de la phrase et du contexte, soit parce qu'ils sont considérés comme non repris dans le comptage de mots pour le calcul de la densité.
Exemple: Rome tour et Rome tours, quand le mot tour va etre compté il ne va pas etre compté deux fois car le singulier ne va pas etre compté comme le meme mot inclus dans le pluriel.
Ce qui se note d'ailleurs dans les positions des SERP où ils ont carrément deux requetes bien distinctes.
@loran: une page qui a de l'ancienneté n'a pas forcément du trust, ce n'est pas une équation forcée...
@olivier : je me suis mal exprimé. Cette page arrive en second, alors que comme tu le soulignes, l'ancienne arrive toujours en premier.
Note pour plus tard (ou pour celui qui veut faire un test) : Effectuer un comparatif entre une page qui a de l'ancienneté (et donc du trust) et une nouvelle page, qui a la prime de fraicheur... Chacune des 2 pages mériterait d'être présente en 1er, l'une pour la confiance, l'autre pour la nouveauté car cela apporte quelque chose de plus valide (?).
Une seule chose est sure l'indice doit être supérieure à 0, par contre il peut aller jusqu'à 100 % ... s'il n' y a qu'un seul mot sur la page !! :)
Plus sérieusement sur certaines des SERP que je monitor on voit des densités de 30 % sur des pages certes courtes et des 2 % moins sur des longues, mais toutes bien positionnées, donc les ratio ideaux du style 3 à 8 % c'est de fait une légende !
Comme le signal loran, les commentaires cassent l'indice de départ.
il n'y a bien sûr pas d'indice de densité idéal, en revanche il me semble qu'un excès (à tous les niveaux) est quand même pénalisant. il me semble important de le souligner.
"au fait c'est quoi l'indice de densité de cette page pour la requête « indice de densité » ? :-) "
Et bien, pour un sujet qui veut prouver que ce n'est pas un critère !!!
Sinon, selon Alyze, la densité est de 3,4% pour 25 occurences du terme. Et ce, sous la forme de Title, de Alt, de gras (strong), de liens et de textes standards...
Cependant, sur ce terme là, WRI est second ... ... ... ... ... Est-ce dû à la puissance SEOienne intrinsèque de WRI ou bien est-ce dû à la densité des mots-clef ?
ps : pas taper !
pps : à cause de ce commentaire, les statistiques sont différentes.
@loran : chez moi le 1er résultat est ma vieille page https://www.webrankinfo.com/outils/indice-densite.php