Logiciel pour connaitre le % de mot clé répétés

WRInaute occasionnel
Bonjour,

Je souhaiterai connaitre le % nombre de fois qu'est répété mon mot clé sur ma page web en fonction de la totalité du contenu.
Connaissez vous un logiciel ou une application en ligne qui permet de faire cela ?
Je crois que l'on dois ce situer entre 5 et max 10% de mot répété par rapport à la totalité du contenu

Merci
 
WRInaute discret
Sinon, il y a aussi l'extension KGen pour Firefox.
Avec tu peux récupérer tous les mots d'une la page et voir combien de fois ils sont répétés, quels sont leurs poids (un mot dans un titre est plus « lourd » que le même mot dans un paragraphe), etc.
 
WRInaute passionné
thickparasite a dit:
Attention tout de même car les moteurs ne fonctionnent absolument pas à partir de la densité.

Faut pas être si affirmatif.
Car même dans les analyses type tf/idf, méthode souvent attribuée à l'analyse du contenu textuel par les moteurs de recherche, TF est une densité.

Donc, je dirai que :
- il ne faut pas confondre nombre d'apparition du mot (fréquence) et densité.
- Une page web n'est pas un document plat. Par exemple, un moteur de recherche attribuera un poids différents aux occurrences d'un mot dans un titre (h1, h2,...) ou dans un paragraphe.
- La fréquence ou la densité d'un mot-clé sera évaluée par un moteur en comparaison avec un corpus de pages témoin dans la même langue

En soit, la fréquence d'un mot dans la page ou la densité ne sont que des approximation de qualité très moyenne des méthodes d'analyse de document utilisé par les moteurs.
 
WRInaute discret
Tout a fait d'accord avec l'analyse de MagicYoyo :D.
La densité en elle-même n'est pas la chose à retenir, mais il faut évidemment que les mots-clés apparaissent un certain nombre de fois dans le contenu.
 
WRInaute accro
les différents articles d'Olivier + une des formatrices stipulent bien pourtant qu'il faut oublier totalement la notion de densité de mot clé qui, depuis l'amélioration de Google en terme de linguistique, montrent qu'un mot clé ayant une densité de plus de 1 à 2% n'est pas possible sans sur-optimisation, et donc peut desservir le référencement. il faut jouer avec les synonymes, mais surtout pas avoir une trop forte répétition d'un meme mot clé (et on parle de 1 ou 2% , pas les 5 ou 10% annoncés il y a ... 10 ans)
 
WRInaute passionné
e-kiwi a dit:
... montrent qu'un mot clé ayant une densité de plus de 1 à 2% n'est pas possible sans sur-optimisation
Je penses que tu dois te tromper dans tes chiffres. Sinon, 99% des pages web en TOP20 sont en sur-optimisation.

Exemple pour la home de WRI :
Google : 82 occurences, 5,12%
 
WRInaute passionné
MagicYoyo a dit:
thickparasite a dit:
Attention tout de même car les moteurs ne fonctionnent absolument pas à partir de la densité.

Faut pas être si affirmatif.
Car même dans les analyses type tf/idf, méthode souvent attribuée à l'analyse du contenu textuel par les moteurs de recherche, TF est une densité.
Arf! T'as lu par dessus l'épaule de Dams ? :D
Il faut garder les explications dans des termes que les lecteurs puissent comprendre.
Dans ce cadre, je répète que la densité est une donnée galvaudée. Calculer le nombre d'occurrences par rapport à la longueur du texte n'est pas une méthode viable puisque les moteurs ne raisonnent pas de la sorte.
J'ai déjà évoqué ce problème plusieurs fois. En bref (vraiment en bref), il faudrait calculer les occurrences par rapport au reste du site et également par rapport aux concurrents sur la requête. Et encore, nous aurions un tout petit aperçu de la pondération, mais c'est déjà plus fiable que cet indice de densité que je vois même apparaître dans des audits de référencement.
 
WRInaute accro
MagicYoyo a dit:
e-kiwi a dit:
... montrent qu'un mot clé ayant une densité de plus de 1 à 2% n'est pas possible sans sur-optimisation
Je penses que tu dois te tromper dans tes chiffres. Sinon, 99% des pages web en TOP20 sont en sur-optimisation.

Exemple pour la home de WRI :
Google : 82 occurences, 5,12%

non non, c'est bien les chiffres annoncés lors de la dernière formation WRI que j'ai faite
 
WRInaute passionné
Prends n'importe quel texte sans keyword stuffing et ça dépasse allégrement ce chiffre.
Tout en répétant que c'est assez absurde de se baser sur cette notion.
Au minimum, utilisez un outil tel que celui de Berb http://textalyser.net/

Tu recommandes vraiment cet indice lors de formations ?!?!
 
WRInaute passionné
Mouais, t'as surtout fait un article sur SEO Quake... sans lien avec les propositions faites ici pour améliorer l'indicateur utilisé par les référenceurs.
 
WRInaute accro
thickparasite a dit:
Attention tout de même car les moteurs ne fonctionnent absolument pas à partir de la densité.
Bah je peux t'affirmer le contraire vis à vis de test que je mène sur un site. les pages sont placé en fonction de la densité d'un keyword bien précis. Et je ferais bientôt le test entre des pages de sites différents.

Et pour le 'tit kiwi, se test fait sur plusieurs page d'un site montre que la densité hors balise spécifique, mais juste en contenu simple monte bien au dessus des 10% d'il y a soit-disant 10 ans. ;-)


Je ne manquerais pas de vous faire signe dès que je mettrais les résultats en ligne. :wink:
 
Nouveau WRInaute
MagicYoyo a dit:
Mouais, t'as surtout fait un article sur SEO Quake... sans lien avec les propositions faites ici pour améliorer l'indicateur utilisé par les référenceurs.

Seoquake permet de connaitre la densité des mots clés et c'est ce que veut le créateur du topic :p
 
WRInaute passionné
Un outil calculant non pas la densité mais le nombre d'occurrences et les n-grammes est Timmy Miner : c'est intéressant car l'analyse se fait au niveau de la page, mais aussi du site (le corpus, càd l'ensemble des pages visitées durant la session). Notez que le balisage est ignoré, seul le texte brut étant pris en compte. Les stopwords sont filtrés. Téléchargeable ici : http://www.web-mining.fr/technologies/timmyminer
 
WRInaute passionné
Yep le RTGI propose pas mal d'outils très interessants (et très obscurs pour des non ingénieurs), je ne peux que vous encourager à tester leurs softs : GEPHI, FLEM...
 
WRInaute passionné
Bémol, le corpus n'est pas, comme je le pensais, un index pré-créé. La comparaison est faite sur les pages qu'on a soi-même analysé.
Ca reste bien pour faire une analyse concurrentielle.
 
WRInaute passionné
Ok je t'ai vexé en critiquant free.fr ou quoi ?
Tu viens remettre en cause les connaissances de tous ceux qui s'y connaissent un minimum en SEO avec ton test.
Que veux-tu que j'ajoute ?
D'accord, ton merveilleux test prouve que l'indice de densité est un paramètre primordial. Bravo!
Tu devrais aussi mettre Matt Cutts au courant car il a aussi l'air d'accord sur le fait que l'indice de densité n'est pas prépondérant.
I’d recommend thinking more about words and variants (the “long-tail”) and thinking less about keyword density or repeating phrases.
Source
 
WRInaute passionné
Le reverse engineering du référenceur du dimanche est valable dans le microcosme de son site.
Ça fait peu pour en tirer des conclusions globales.

French Dread a dit:
Un outil calculant non pas la densité mais le nombre d'occurrences et les n-grammes est Timmy Miner :
Ca m'avait l'air tout à fait intéressant, sauf que
Timmy Miner n'est pas disponible pour MacOSX

Tant pis :(
 
Discussions similaires
Haut