Test référencement sur 3 pages - Title, H1, densité de mots-clés

WRInaute impliqué
je viens de mettre en ligne sur un site 3 pages.
ces 3 pages ont exactement la même structure, la même place , le même PR.

mais chacune des pages a une optimisation différente :
- page 1 :
titre avec mots clés seulement
h1 au debut
densité élevée dans le contenu
lien avec mot clé
- page 2 :
titre plus dilué
pas de h1
contenu moins dense
pas de lien
- page 3
titre sans clé
pas de h1
contenu très dense
pas de lien

d'après vous ai je assez changé les critères afin de pouvoir comparer le meilleur positionnement de ces pages ? (si non merci de me donner vos idées)
et d'après vous quelle sera la page qui va gagner ?

merci de votre aide.
je crois sincèrement que gg a mis en place un filtre du style
si condition a = + points
si condition b = + points
si condition c = + points
.........................
mais SI condition a est réuni avec condition b et avec condition f alors - points
 
WRInaute passionné
sur quels mots clés? pke si ce sont des motsclés prisés, je pronostique cas B, si non, cas A

tu mle fais delirer, tu renonces jamais a essayer de decrypter google :) je c pas comment tu fais, moi j'en peux plus...Mais tu devais pas arreter de te casser la tete et dormir au fait? la tentation est elle trop forte? :)
 
WRInaute accro
on peut pas "réduire" les critères de classification de google a ces seuls parametres...

il y a 1 mois, option 1 évidemment et ce n'est plus le cas (heureusement?) aujourd'hui..
 
WRInaute impliqué
mahefarivony a raison, on ne peut pas réduire google à ses critères mais au vu des analyses que j'ai pu effectuer, pour les mêmes sites avec dmoz+pr+bl enfin tout le tralala des pages avaient des différences énormes dans les résultats donc je reste convaincu que tout est dans le code source.

voilà la formule algo de google :D :
if $PR= mots clés {$points=70};
if $BL= mots clés {$points=50};
if $title= mots clés {$points=10};
if $h1= mots clés {$points=30};
if $contenu= mots clés {$points=50};
if $liens= mots clés {$points=10};
BUT :lol:
if $PR=70 and $BL=50 and $h1=20 and $contenu=40 ==180 points
oula ca fait trop de points ca (se dit google)
TILT !!!
:p :p :p
 
WRInaute impliqué
c'était pour rire c'est du PHP simplifié pour donner un exemple

cela veut dire :
si valeur(tittle)=mots clés demandés alors les points attribués par google sont de 40

désolé je voulais faire drole, je crois que ca a complètement raté :oops:
 
WRInaute accro
a quoi bon ? une fois que tu auras retrouvé la "formule magique" tu n'auras meme pas la certitude que ca va marcher le mois d'apres..

ah la la, toutes ces heures que tu as passé pour faire tes tests ...
 
WRInaute accro
ok.. la tu raisonnes sur la base d'une page ce qui a mon sens ne veut plus rien dire.

as tu essayé ceci ?

site:www.kouakou.com tes mot clé
site:www.lesiteacaro.com tes mots clé
 
WRInaute impliqué
j'ai édité ce post car malgré que je ne sois pas toujours d'accord avec mahefarivony, il a entièrement raison, il est vrai qu'on ne pourra jamais trouvé la formule de google ou alors on la trouve et hop il la change et c'est justement ce qui s'est passé.
ces derniers temps avec juste du travail et de la patience il m'était possible de placer en 1 mois un site dans la première page à 90% sûr. et là est la raison des changements de google trop de monde pouvait maintenant se balader dans les résultats avec des techniques longuement testées.

en fait je crois que je me suis pris énormément la tête et qu'il faut juste essayer de faire un site sympa pour le visiteur et ne pas optimiser les pages comme des tarés.

voilà ma nouvelle politique pour les prochaines semaines et on verra bien le résultat, en tout cas je pense que j'occuperais moins les 5 premières places mais plutot les 2 premières pages et peut être que le site résistera à toutes les GD au moins :wink:
 
WRInaute discret
il est bien tard caro... je suis tout seul a te lire a cette heure là :wink:

Ne désespère pas, je pense que tes tests son bons et utiles, mais comme on a pu le constaté depuis les derniers filtres, il faut sans doute (sur les mots a forte concurrence) moins optmiser ses pages, en pensant "naturel" CAD surfeur...

Après, quelques constats simples issus des sites qui s'en sorte le mieux : pénalité aux sites a densité 100% sur les critères considérés les plus importants, comme le domaine, le titre et les H1/H2.

Ensuite, selon moi :? , si sur une requete a 2 mots clés tu as dans le titre, dans le body et les ALT, seulement l'un ou l'autre des mots, tu augmentes a priori ta crédibilité pour google... enfin bref, perso, c'est dans cette direction que je m'oriente pour le moment...

Mais la notoriété reste un critère déterminant, car biensur, meme si GG peut modifier l'importance qu'il attache au PR, cela restera toujours un critere de référence, un critere de base, efficace contre le spam (mais pas toujours sur la pertinence.. c'est un autre sujet :roll: )...

bref, good night :D
 
WRInaute passionné
pour contribuer un peu à ce test, aujourdh'ui le 6 février, j'ai un peu diluer le titre de ma page et j'ai récupérer la première place, à voir !
 
WRInaute passionné
attendez. les pages d forum wri sortent toujours tres bien alors que les mot clés sont dans les titres, h1, et contenu...bref pour moi c'est pas un filtre systematique, mais uniquement sur certaines requetes tres prisées, dans un but purement commercial, et pas du tout pour eviter le spam...d'ailleurs la preuve c que les sites qui trichent sortent mieux qu'avant!
 
WRInaute passionné
alors, les tricheurs, c'etait nous. c vrai apres tout, on essayait d'avoir des visiteurs de google sans payer les adwords...bientot, ca sera formellement interdit :p
 
Olivier Duffez (admin)
Membre du personnel
je pense que les changements sont plutôt parmi les critères off page (liens : nombre, type, origine, texte de lien, etc.), ce qui expliquerait les difficultés rencontrées pour tirer des conclusions des exemples.
en effet, quand on cherche à savoir pourquoi une page est en 1er, on analyse surtout les critères on page (titre, densité, et aussi le PR).
 
Olivier Duffez (admin)
Membre du personnel
pas forcément au PR (je n'ai pas fait de tests poussés dessus depuis ces derniers temps)
plutôt dans le type de backlinks (et pourquoi pas aussi de liens sortants) et dans le texte des backlinks
 
WRInaute impliqué
je ne suis pas d'accord du tout avec le chef :wink:

suite à une de mes analyses très poussées :lol:
je vois passer des sites devant moi qui ont :
- moins de pr
- moins de links avec les clés dedans
- moins de pages pointant sur la page classée
- moins de links sortants intéressants
- ils ont pas dmoz et moi oui
enfin tous les critères liens et pr que j'ai étudié sont en ma faveur,
ce qui est normal puisque chacun de mes sites ne traitent que d'un sujet précis
et donc 50% des sites qui pointent ont le meme sujet, les clés dans les liens enfin tout le tralala que vous connaissez

donc je suis sure et certaine que tout est dans le code source de la page
style une condition de pénalisation si plusieurs critères sont regroupés comme titre+h1+densité+sémantique jugée bizarre

faites comme moi, faites des pages tests que vous reliez à votre index et regardez laquelle sort le mieux
vivement dimanche peut être une GD :p
 
WRInaute impliqué
mahefarivony ce ne sont pas des hypothèses mais des faits constatés

on ne peut pas dire que les pr,bl,liens pointant ... ont pris une part plus importante qu'avant car tous mes sites sont de ce coté là hyper travaillés et en tout cas plus que les annuaires qui m'ont doublé
et ca c'est pas une hypthèse mais ce sont des faits vérifiés
(il suffit de voir avec les commandes link pour les liens pointant ou autres commandes pour voir le nb de pages indexées enfin tu connais autant que moi)
 
WRInaute impliqué
Salut à tous,

Caro, tu à l'air bien sur de toi (je te rassure, c'est un trait de caractère que nous avons en commun).
Tu te rends bien compte que Google n'affiche plus tous les BL.
On va dire qu'il les choisi en fonction de leur PR pondéré par leurs propres liens sortants, ce qui fait qu'une page BL avec 8 de PR mais avec 300 liens sortants, dont un vers ton site, n'apparaîtrait pas dans tes BL alors qu'une autre avec 2 de PR et juste 2 liens sortants dont 1 vers ton site apparaîtrait lors d'un site:
Ce qui veut dire que, bien que les pages qui n'apparaissent pas n'aient pas beaucoup d'importance aux yeux de Google, elles représentent la partie immergée de l'iceberg et nous ne disposons pas de toutes les informations afin d'analyser les critères off page.
Il me semble que si Google voulait augmenter le seuil d'inspamibilité de son algo, il se concentrerait sur ces critères off pages car ils sont beaucoup plus difficiles à contrôler...sauf quand off page ne signifiait pas off site, c'est à dire qu'il suffisait de mettre des liens sur chaque page de son site, pointants vers la page d'accueil (ou autre) avec les mots clés dans l'ancre, et c'est justement ça que Google à squeezé récemment.
J'ai positionné un site qui n'avait aucuns liens entrants, sur une requête concurrentielle, en utilisant cette méthode alors qu'il était inconnu de Google.
Sa montée dans les pages de résultats a été fulgurante, et depuis Flordia, la chutte 'en a été que plus dure.
Penser que Google a durci son algo en modifiant les critères in page me semble un peu naïf surtout lorsque l'on sait qu'historiquement il a été le 1er moteur a donner autant d'importance aux critères off pages avec les BL et le PR.
Nous devrions plutôt nous orienter vers des solutions beaucoup plus complexes (si nous pouvons les appréhender) du type "hubs and auhorities" ou "blocks" avec pendant la phase transitoire que nous vivons depuis le 15 novembre, quelques ajustements de fortune de type "pénalité de sur-opimisation", afin de montrer aux sites machands pendant la très lucrative période de fin d'année, qui est le patron dans la maison Google et de leur rappeler quelques notions de base comme le fait de ne pas oublier d'acheter leurs Ad'Words avant les fêtes...non mais !
Bonne nuit à tous.

Cid


PS

J'ai vu qu'Olivier avait été interrogé en tant que spécialiste Google, par l'autre Olivier (Andrieux), sur les changements de l'algo de GG depuis Florida, dans le cadre de la lettre payante d'Abondance.
Je ne manquerais pas de la lire...et bravo pour cette consécration.
 
WRInaute impliqué
désolé d'être obstinée à ce point :lol:
MAIS lisez bien ce qui suit attentivement :

j'ai 2 exemples que personne ne pourra contredire, 2 sites qui parlent un d'un sport et le deuxième d'un loisir.
ils étaient tous les 2 premiers dans leur requete respective et :
- avant la GD les 15ers sites de google pointaient sur moi ce qui est important car ca veut dire que ces liens sont du meme sujet que moi (donc super méga liens quand meme non ? je vois pas comment on peut faire mieux)
- pr5 tous les 2 avec les mots clés nickels
- catégorie dmoz (et pour un site dans 2 cat)
- liens pointant très nombreux
- chaque site ne traite que d'un seul sujet (donc super pour le visiteur, des tonnes d'infos sur le sujet qu'il cherche sur plus de 40 pages !)

après la GD c'est simple il suffit de voir les sites qui sont passés en dessus :
- pages des résultats google ont un pr1 voir 0
- liens pointants sur ces pages sont plus que faible (moins de 3) et en plus les sites pointant sur les pages n'ont aucun rapport avec le sujet en question
- je suis d'accord google n'affiche pas tous les liens mais il affiches les liens imporants, donc pour mes sites c'est pareil non !

alors chacun est libre de penser ce qu'il veut dans ce forum
mais on est là pour se donner des conseils, et je peux pas mieux faire (des heures d'analyse) que cette étude car ceux qui disent que la solution est HORS page je suis sure à 99% qu'ils ont torts,
pourquoi ces 2 sites sont ils alors doublés par des pages presque hors sujet, sans liens, sans pertinces,
google a pris concience que la source de la page était encore plus travaillée que les liens et pr je pense sincèrement que c'est là qu'il a mis des barrières

ceci explilquerait pourquoi les sites qui ont de super liens et pr ressortent nickel malgré leur très faible densité dans le contenu, les liens sont super importants mais si ils sont pénalisé par le contenu tout part en patratac :)

merci de vos opinions et de vos idées à ce sujet
ps : soyez pas trop dur avec moi :wink:
 
Olivier Duffez (admin)
Membre du personnel
on ne veut pas t'agresser caro, au contraire je trouve que tu motives bien les membres de ce forum à faire des tests, ce qui est sans doute le meilleur moyen d'y voir plus clair dans tous ces changements.

est-il possible qu'un site (ou une page) disparaisse totalement des 10 premières pages de résultats, alors qu'il était dans les 5 premiers, sans avoir rien changé des critères on page ?
Moi je ne pense pas. [édité : j'avais écrit trop vite, et ceci était contraire à la logique de mon argumentaire : je sais que c'est possible qu'un site disparaisse comme ça, et donc c'est forcément dû à des prises en compte de critères off page ou même off site]
Je pense donc que la prise en compte des liens n'est plus du tout la même qu'avant.
 
WRInaute passionné
WebRankInfo a dit:
est-il possible qu'un site (ou une page) disparaisse totalement des 10 premières pages de résultats, alors qu'il était dans les 5 premiers, sans avoir rien changé des critères on page ?
Moi je ne pense pas. Je pense donc que la prise en compte des liens n'est plus du tout la même qu'avant.

Si, exemple avec mon site. Sur la requête "colocation france" j'étais 1er il y a deux semaines, aujourd'hui je ne fais plus partie des 10 premières pages. Sans avoir changé quoi que ce soit sur la page évidement.
 
WRInaute impliqué
merci pour tes encouragements WebRankInfo :wink:

en effet moi aussi j'avais vraiement rien touché dans mes pages avant la GD,
aujourd'hui j'ai aussi carément trouvé devant un de mes sites une page d'un site qui a 3 pages au total et qui ne traite pas du tout du sujet de la requete avec pr0, 1 lien sans aucun rapport enfin une page qu'on se demande presque si elle s'est pas perdu :lol:
et il sort juste à cause de son titre et 1 seul mot dans le texte

de plus en plus bizarre :cry:
je me languis trop de voir toutes les pages crawlées sur lesquelles j'ai fait des changements ca va délirer :?
 
WRInaute impliqué
Caro,

Loin de moi l'idée d'être dur avec toi étant donné ton niveau d'implication dans la compréhension du problème qui nous intéresse tous.
Je suis en train de compiler les infos que j'ai trouvé sur différents sites américains : Planet Ocean (www.searchengine-news.com), www.searchenginewatch.com et Webmasterworld et je vous en ferais un résumé sous peu.
Et comme toi Caro, je fais des tests sur mes sites, et je compare l'avant et l'après en utilisant le allintext ou Scroogle.
Toutefois il semblerait que la théorie de Mahe ne soit pas improbable (modifications aléatoires de l'algo), du moins pendant une phase transitoire. A moins que certains sites aient subit une pénalité et que quoi qu'ils fassent pendant cette phase transitoire ces modifications ne soient pas prises en compte.
Tout ça pour dire qu'à mon avis tout est fait chez Google afin de rendre introuvable le nouvel algo, qu'il n'y ait aucune logique qui ressorte de tous ces changements, qu'on puisse toujours trouver des contre exemples...mais à terme, il me semble quand même plus probable que le renouveau vienne de l'analyse des critères off page (communautés de sites, hubs and authorities, etc...) que de critères in page que les petits malins comme nous, et surtout les Franao et cie, mettraient 3 semaines à trouver et continuer à spammer de plus belle.

@+

Cid
 
Olivier Duffez (admin)
Membre du personnel
sdamain a dit:
WebRankInfo a dit:
est-il possible qu'un site (ou une page) disparaisse totalement des 10 premières pages de résultats, alors qu'il était dans les 5 premiers, sans avoir rien changé des critères on page ?
Moi je ne pense pas. Je pense donc que la prise en compte des liens n'est plus du tout la même qu'avant.

Si, exemple avec mon site. Sur la requête "colocation france" j'étais 1er il y a deux semaines, aujourd'hui je ne fais plus partie des 10 premières pages. Sans avoir changé quoi que ce soit sur la page évidement.
je m'étais mal exprimé, j'ai édité mon message.
 
WRInaute impliqué
enfin quelques résultats !!! :lol:

alors voilà les pages qui sont remontées :
- pas de clés dans les title (si liens externes et densité contenu sont assez optimisés)
- densité de clés dans le texte importante
- nom de fichiers avec clés sous forme de " _ " (peut être une coincidence)

de toute facon je vous donne les premières impressions à chaud mais il faut que je regarde ca de plus près et je vous tiens bientot au courant (en plus il reste encore plein de pages non crawlées) et j'ai fait des dizaines de tests alors il faut vérifier avant de dire des co..... :lol:

à suivre ...
 
WRInaute accro
le "pas de clés" dans le titre, j avais cru remarqué ca aussi..... :) merci pour ces premiers resultats !! quant au undescore, ca renforcerait le soupcon que google "repère" certains mots-clés dans les URL (NDD, Repertoires, noms de fichiers) pour retrograder les pages (afin d´encourager l´achat Adwords). Le contenu en ressortirait gagnant...aaaahhhh ce qui serait logique finalement !!! tout ce qui permet une otpimisation trop facile sans contenu va disparaitre (title, description, url, et liens internes....)

il y en a qui vont se jeter pour aller supprimer les mots clés des URL..... :)
a+
 
WRInaute occasionnel
trés intéressant, est ce que tu pourras nous donner les adresses de tes tests?
j'ai un site trés récent qui était en première page pour "peintures" ou "dessins" et qui a comlpètement disparu.
et c'est vrai que ces mots sont trés présents dans les titres...
après si je fais une requête sur d'autres mots associés qui sont dans le site, celui-ci ressort toujours trés trés bien placé ( par exmple c'est quand même incroyable que mon site sorte premier sur le mot "enregistrer"!! https://www.google.fr/search?sourceid=na ... nregistrer ). Donc Google m'a "à la bonne" sauf pour ces mots trop optimisés (ce qui n'était pas vraiment voulu vu que j'étais totalement débutant en référencement quand j'ai fait le site)
 
WRInaute impliqué
herveG a dit:
quant au undescore, ca renforcerait le soupcon que google "repère" certains mots-clés dans les URL (NDD, Repertoires, noms de fichiers) pour retrograder les pages (afin d´encourager l´achat Adwords). Le contenu en ressortirait gagnant...aaaahhhh ce qui serait logique finalement !!! tout ce qui permet une otpimisation trop facile sans contenu va disparaitre (title, description, url, et liens internes....)

il y en a qui vont se jeter pour aller supprimer les mots clés des URL..... :)
a+

J'ai du mal comprendre ou Caro disait exactement le contraire ?

Cid
 
WRInaute accro
le undescore n est pas un separateur d apres ce que j ai compris. donc une url de type hotels_paris ne permet pas a google de distinguer le mot hotle et le mot paris. si effectivement, google a dressé un liste de mots "chasse réservée pour adwords", et que hotels et paris en font partie, c est normal qu´une URL qui ne permet pas d´identifier les deux mots (avec undescore par exemple) ne soit pas "sanctionnée" comme une URL qui aurait hotel-paris par exemple..... ou ww*.tonsite/hotels/paris.php

commentaires ?
a+
Hervé
 
WRInaute impliqué
Kmacleod a dit:
On peut même affiner la densité suspecte à plus de trois
(avec mise à jour du cache google au 9/02/2004)

précise nous un peu, tu parles de la densité totale, titre ou contenu ?
ca m'intéresse :wink:
 
WRInaute passionné
Il suffit de regarder sur une requete qui a été ejectée (pour densité supposée trop forte) le cache de google avec les termes de la requetes surlignée en couleurs. Compter alors le nombre d'occurence des termes de la requete.
Comparer avec les premiers resultats données par google.
Je constate qu'au delà de trois répétitions des termes de la requete dans la page, la page est ejectée de la première page des resultats.
 
WRInaute accro
je crois que tous les criteres qui peuvent etre optimisés du propre chef du Webmaster vont perdre en importance, voire meme vont devenir prejudiciables a dose élevée, a savoir (donc mahe, ok avec toi) :

- le titre
- la description
- l´url (y compris repertoires, sous domaine et nom de fichiers)
- les H1,2,3,4,5,6,7,8,10,11,12,13,14,15 :wink: les Strong
- les BL internes

et vont gagner en importance ceux ci :

- le contenu
- le contexte (thematiquede la page, des liens entrants et sortant, les annuaires thematiques, etc.)

c est mon pronostic, mais je ne vais pas me decider demain de tout chambouler pour ca. j´attends qu il fasse vraiment mauvais pour commencer à penser à un acheter un parapluie (oh comme c est poètique...)

a+
hervé
 
WRInaute accro
Kmacleod a dit:
Il suffit de regarder sur une requete qui a été ejectée (pour densité supposée trop forte) le cache de google avec les termes de la requetes surlignée en couleurs. Compter alors le nombre d'occurence des termes de la requete.
Comparer avec les premiers resultats données par google.
Je constate qu'au delà de trois répétitions des termes de la requete dans la page, la page est ejectée de la première page des resultats.

j ai plusieurs exemples, ou les pages en tete de resultats sont encore "truffées" des mots de la requète. mais peutetre que sur les requetes a mot unique, ca se vérifie.

a+
hervé
 
WRInaute accro
je crois que les fracacao et compagnie benéficient encore d´un statut spécifique vis-a-vis de google....! ne les prennons pas comme la règle car je crois que ce serait une erreur. ils ont une sorte d´immunité diplomatique.... :evil:
 
WRInaute occasionnel
ya quand meme deux adwords ...
Je connais certaines requetes avec moins de adwords qui ont ete completements chamboulee alors que celle ci resiste bien.

Et encore un contre exemple !
 
WRInaute passionné
bertotj a dit:
ya quand meme deux adwords ...
Je connais certaines requetes avec moins de adwords qui ont ete completements chamboulee alors que celle ci resiste bien

Ah oui, tiens, j'avais regardé sur google.com et là il n'y a pas d'adwords.

Fred
 
WRInaute occasionnel
Bon ben si je reapparait pas a cette google danse ... je vais me payer Adword ... ya pas moyend e faire autrement ...
Comme quoi !
 
Discussions similaires
Haut