Un tel fonctionnement de google est-il possible ?

WRInaute accro
Ce n'est qu'une hypothèse mais est-il possible que google ait intégré un mécanisme comme celui que je décrit ci-dessous ?

• un indice genre "pagerank global" est calculé pour un site en fonction de son autorité et popularité
• à partir de cet indice un nombre de requêtes qui rankent est aloué, par exemple 100
• même si le contenu du site double en nombre de pages ça ne change rien
• au bout d'un certain temps il y a comme une google dance et l'indice est de nouveau calculé et certaines pages qui rankaient ne rankent plus pour différentes raisons
- disons par exemple que 25 pages ne vont plus ranker pour raisons conjoncturelles (pas assez de clics, taux de rebond trop élevé, etc)
- disons par exemple que 25 autres pages ne vont plus ranker pour raisons techniques (suroptimisation des liens, page de venue trop ancienne, etc)
• les 50 pages qui ne rankent plus sont remplacées par 50 autres pages et le cycle recommence

J'ai cette idée car j'ai constaté qu'il arrive très souvent qu'on plafonne, même si on apporte beaucoup de contenu régulièrement. Et j'ai aussi constaté que certaines pages se mettent à ranker après plusieurs années alors qu'on n'a absolument rien fait sur ces page de particulier. Et puis d'autres se mettent à plonger sans raison. Et pour moi ça suit des cycles d'environ 6 mois.

Donc ça voudrait dire que tant que je n'ai pas gagné en autorité et en popularité que n'aurai toujours qu'un certain nombre limité de requêtes qui rankent, quel que soit mon volume de pages publiées.

Est-ce que vous avez aussi constaté un tel phénomène sur vos sites ?
 
WRInaute impliqué
Oui et non. Je pense que c'est plus simple.

Il y a clairement une prime à l'ancienneté, à laquelle il faut ajouter une prime bis: les sites qui ont connu les années 1990-2000 ont connu les années folles, celles où les internautes faisaient spontanément circuler des liens via les blogs et forums. Aujourd'hui ça passe par les réseaux sociaux, sans que le lien soit intégré dans un article, de façon éphémère et sans analyse / débat de fond. Le tout capté pour l'essentiel par ce qui est destiné à faire du bruit, avec une image et un titre bien racoleurs. Les gens ne cliquent souvent même plus, ils se contentent de l'aperçu, et encore, même ça ils arrivent à le lire en diagonale.

Les vieux sites ont donc la prime à l'ancienneté + une assise obtenue à une époque où c'était encore possible. C'est ce qui permet à des sites techniquement dégueulasses offrant du contenu moyenne gamme, voire au rabais, de polluer la première page de Google en dépit du bon sens. Je ne vais pas citer d'exemple pour ne pas vexer l'équipe de Doctissimo, mais bon...

Google n'a en réalité plus grand chose de sérieux à se mettre sous la dent pour déterminer la véritable valeur d'un site, hormis ceux qui appartiennent au genre YMYL, il reste donc en bonne partie sur ses fondamentaux pourtant anachroniques, ce qui favorise le troisième âge et génère de fait un plafond de verre pour les autres. Pour le moment...
 
WRInaute accro
je crois que tu n'as pas compris mes réflexions. Je parlais uniquement des pages d'un site sans tenir compte de la concurrence.
Je veux dire par là que quand j'avais 500 pages j'en avais par exemple 20 qui rankaient bien. Ça serait logique qu'avec 1000 pages il y en ait maintenant 40 qui rankent. Mais je me retrouve avec toujours environ 20 pages qui rankent.
Et avec 1300 pages c'est pareil.
Peut-être qu'avec 5000 pages ça sera toujours pareil.

C'est donc un peu comme si Google avait calculé un chiffre de pages qui peuvent ranker en fonction d'un domaine particulier et ça expliquerait pourquoi j'ai souvent lu ici des gens qui parlent de plafonnement ou de stagnation.

Mais ça changerait fondamentalement le travail du SEO car l'idée ne serait plus de partager sur les RS les pages fraiches mais au contraire d'insister uniquement sur les pages qui rankent déjà dans le but d'obtenir de nouveaux liens et d'augmenter son autorité et ensuite les pages fraiches monteraient naturellement dans les serp avec seulement les actions on-site. Or, souvent on cherche à promouvoir ce qui est nouveau alors que tout serait déjà joué d'avance.
 
WRInaute impliqué
J'avais bien compris.
Je trouve crédible ton hypothèse selon laquelle un site a droit à un pourcentage de pages bien positionnées, mais si ce pourcentage existe, il n'est à mon avis pas calculé "en fonction d'un domaine particulier" mais en fonction de l'autorité du site, laquelle est infiniment plus difficile qu'autrefois à accroître ; d'où la facilité des anciens à bien se positionner sur tout et n'importe quoi pendant que les jeunes "parlent de plafonnement ou de stagnation".

--

Précision: j'ai bien lu que pour toi ce n'est pas un pourcentage mais un nombre fixe. Moi je pense que c'est un pourcentage.
 
Dernière édition:
WRInaute accro
oui, les anciens se positionnent bien car ils ont acquit une autorité

Ce qui m'a interpellé c'est que j'avais une page datant de 2016, une page assez riche et complète. Et elle n'a jamais ranké (elle était vers la position 50 quand quelqu'un tombait par hasard dessus). Et la voila maintenant qui ranke alors qu'absolument rien n'a été fait. Mais en contre-partie j'ai d'autres pages qui ont chuté.

Alors ça me fait penser comme si Google aurait dit :
« ouais, ta page elle est bien, mais désolé, tu as atteint le quota de pages qui rankent »
et puis après le déclassement d'une ou deux pages :
« bon ok, maintenant il y a de la place, je peux te la faire ranker »
 
WRInaute accro
ouais je sais, vous allez me prendre pour un dingue. Certains entendent des voix ou même dieu qui leur parle. Moi j'entends Google qui me parle pendant mon sommeil...
Bon, sur ce, je vais me manger un peu de charcut. Une petite mortadelle à 3h30 du matin ça fait envie. Miam !
 
WRInaute impliqué
Je veux bien que tu entendes des voix ou que tu communiques avec Dieu, mais manger une charcuterie aussi fade que la mortadelle...
 
WRInaute accro
mais c'est un peu gras, ça laisse des marques sur le linceul (euh...la serviette). Ils en ont même retrouvé jusqu'à Turin. En fait, le linceul de Turin c'était la nappe qui a servit à la Cène et il y a des traces de rosette dessus.
 
WRInaute impliqué
Ah ça... le régime n'est pas une spécialité lyonnaise.
Quoique la cervelle de canut, c'est très raisonnable.
 
WRInaute accro
Tu me fais envie. Maintenant j'ai la tome de montagne qui me fait de l'oeil.
Ce qui est difficile avec le canut c'est de l'attraper, tu ne crois pas ? C'est un peu comme partir à la chasse au dahu
 
WRInaute accro
Un peu politique aussi, ce qui la rend assez indigeste...
Et ils n'avaient pas la bonne technique des salaisons du mâconnais.... ils faisaient leur rosette en pierre les Egyptiens. Ils n'avaient que ça d'ailleurs, des pierres. Ils devaient avoir un sacré estomac.
 
WRInaute impliqué
L'armée savait très bien attraper le canut quand il se révoltait.
Aujourd'hui, oui, il y a autant de canuts que de dahus :D
 
WRInaute accro
Sans vouloir être vexant, si Lyon était la capitale de la gastronomie ça se saurait. Ça restera encore Dijon pour pas mal de temps. Un bon bœuf bourguignon vaut bien dix gratins dauphinois.
 
WRInaute accro
Si c'était un pourcentage ça veut dire que plus tu augmentes ton nombre de pages et plus tu aurais des pages qui rankent. Ce n'est pas ce que je constate de mon côté. J'ai même constaté une baisse des mots clés positionnés dans les 20 premières places alors que mon nombre de pages avec énormément progressé.
 
WRInaute accro
Pourtant je ne l'arrose qu'avec du café et pas du Beaujolais. Trop tôt pour ça... jamais avant 9h
 
WRInaute accro
@indigene je suis d'accord avec toi. Je pense effectivement qu'il y a un quota.
Maintenant comment est-il calculé?
Ça serait QUE des suppositions.
Mais ce qui est quantifiable, c'est les pages qui rankent en ratio avec les pages indexées.
Mon site a été lancé cette année donc il prend sur le dos tous les nouveaux filtres GG.
Je m'aperçois que les pages sont longues à indexer sans stimulation sur les RS.
Celles qui commencent à ranker laissent peu de places aux nouvelles. C'est pire si elles traitent d'un sujet concurrentiel !
Je pense que ce quota vaut non seulement pour les pages qui rankent mais surtout la finalité, c'est attribué un seuil de trafic. Un barème de visiteurs.
Donc GG connaît par son expérience, la valeur de toutes tes pages et en fonction de ça, il va déverrouiller des seuils de trafic. C'est la raison pour laquelle il n'y a pas de corrélation entre les pages anciennes et nouvelles. C'est juste un turn-over pour vérifier le comportement et ajuster ses stats. En prenant aussi en compte l'aspect thématique du site. Les pages ayant un fort indice qualitatif seront utilisées pour apporter du trustrank au ndd.
C'est de cette façon, que GG déverrouille plus rapidement ses verrous. Si les pages actuelles indexées intéressent les internautes (taux de rebond, commentaires, avis, partage RS, etc...)

And so far....
 
Dernière édition:
WRInaute accro
@theunholy
@indigene
Il donne faim votre chat :)

@indigene
Je pense que ce quota vaut non seulement pour les pages qui rankent mais surtout la finalité, c'est attribué un seuil de trafic. Un barème de visiteurs.
C'est la première fois que j'entends cette expression "seuil de trafic" et elle devrait être utilisé plus souvent en SEO, a moins qu'elle porte un autre nom que j'ignore.
 
WRInaute accro
@passion : je n'ai pas tout compris à tes explications mais je suis d'accord avec toi pour ce qui concerne les tests. Google sait le faire pour adsense quand on fait varier le taux de remplissage des annonces. Il doit donc savoir aussi le faire pour les pages à faire ranker ou non.

Le problème c'est donc essentiellement le quota. Ce que tu appelles un seuil de trafic

Mais là je ne suis pas d'accord concernant ce seuil de trafic. Car une page qui ranke peut avoir un gros trafic ou un trafic moyen. Elle vont continuer à ranker pendant le même temps.

S'il y a effectivement un seuil c'est plus un seuil par rapport au nombre de pages allouées au domaine. Pour les pages pauvres google va même jusqu'à les supprimer de son index. Pour les autres il les supprime de sa short list des pages à faire ranker.

Effectivement ça doit être une conséquence du trustrank mais non un paramètre pour calculer le trustrank. Par exemple si un site a un très très gros TR, comme wikipedia, il aura presque toutes ses pages qui vont ranker. C'est aussi le cas pour des sites comme Amazon. Pour les autres sites ayant des TR moindre ils ont moins de pages favorisées.
Mais les pages favorisées ne le sont pas en fonction du TR car sinon on aurait toujours le même classement dans les serps : wikipedia, amazon, etc... Et les internautes en auraient mare. Une page favorisée aura les mêmes chances qu'une page de wiki ou amazon en fonction des autres critères de classement. Une page qui ne l'est pas, même si elle est hyper qualitative, n'aura aucune chance sauf sur des requêtes longues très ciblées qui pointent directement sur cette page. Et ce jusqu'à la prochaine "danse" où elle peut entrer dans la short list des pages favorisées.

La question demeure donc : comment augmenter son quota ? C'est ça qu'il faut creuser. Car augmenter son volume de pages, même si elles sont très qualitatives, ne semble pas augmenter le quota.
 
WRInaute accro
La question demeure donc : comment augmenter son quota ? C'est ça qu'il faut creuser.
Je pense qu'il pourrait se résumer par :
+ page = indice satisfaction du lecteur (taux de rebond, partage...)
+ backlink = BL qualité vers la page (non vers le site)
+ indices transversal = TR du NDD, BL total, etc...
Tout ceci est mouvant.
Ce qui doit être déterminant, c'est les BL pointant vers la dite-page. C'est le cas pour le TR du NDD donc cela doit être aussi le cas pour chaque page que tu souhaites ranker.

Ensuite par la métaphore d'un arbre :
* les branches, c'est tes pages
* le tronc, c'est ton NDD
* les racines, c'est la résultante des branches et du tronc.

En conclusion, + les branches sont saines et porteuses de fruits alors + la terre (Google) sera fertile et tes racines s’enfonceront profondément. Et en retour, comme tes racines seront puissantes, le tronc (TR) va s'élargir et tes branches se multiplier.

Il ne faut pas oublier une chose importante, GG veut purifier son index des pages pourries donc dans ce même état d'esprit, il faut indexer que les pages qualitatives et faire des liens de qualité vers ces pages pour lui montrer qu'elles ont de l'autorité (principe des branches avec fruits).
Théoriquement, elles devraient monter en puissance donc ton budget crawl suivra !
Je ne pense pas qu'il faille indexer beaucoup de pages si tu ne comptes pas faire du linking dessus.
Et ainsi de suite...

Tu parlais de Wikipédia. C'est le même principe. Pourquoi ses pages rankent ? Parce qu'elles obtiennent naturellement des BL. Elles prennent de l'autorité et donc venir grossir le tronc (arbre).
 
Dernière édition:
WRInaute accro
ce n'est pas aussi simple car pour wiki quand tu as une nouvelle page de quelques mois qui ne contient que 2 lignes de texte je ne pense pas qu'elle prenne énormément de linking. C'est l'autorité du domaine qui le porte.

Et selon ton explication il n'y aurait pas de quota et donc plus tu ajoutes de pages qui sont liées et reçoivent des BL ça renforce le tronc et donc la progression devrait être régulière, par exemple 500 pages, 20 pages qui rankent, 1000 pages -> 40 pages qui rankent, etc... Mais je constate que ce n'est pas le cas. On a 500 pages -> 20 pages qui rankent, 1000 pages -> 20 pages qui rankent, 1300 pages -> 20 pages qui rankent, etc...
 
WRInaute discret
moi je dirais : c'est dans les "vieux pots qu'on fait la meilleure confiture". Si t'as un domain qui rankait dans une activité dans le passé, tu peux mettre du gloubiboolga dedans, il va cartonner dans google
 
WRInaute discret
y a zero liens de nulle part versdans le sens site --> wikipedia wikipedia (personne ne fait de liens vers wikipedia, ou faux etrefoux)
ce sont plutot des liens sortants non indexer qui sortent dans le sen wikipedia --> personne , site web... (aucun lien sortant de wikipedia n'est indexe dans google, ils sont pas fous).

Ce qui fait grimper wikipedia, c'est le traffic visiteur, que google peut facilement détecté. déja par ce qu on cherche dans son moteur de recherche (a une epoque il publiaient les tops sites visités du monde, mais c'est vieux), ensuite par tous ce qui passe dans ses serveurs dns 8.8.8.8 et 8.8.8.4, plus tout ce qui passe dans les fibres optiques qu'ils possedent. de quoi mixer le top des sites wiki, meme si wikipedia a peu d'avenir face a chatgpt
 
WRInaute passionné
Lorsque je vois certains site d'e-commerce dans ma thématique squatter le top 3 d'innombrables requêtes très concurrentielles avec quasiment pas de contenus (texte) mais uniquement des produits, il est difficile dans ces cas là de se dire que Google appliquerai un « quota » de visiteurs pour ces sites. Surtout qu'il ne s'agit pas de requêtes à 100 clics par mois mais de requêtes à plusieurs milliers de clics par mois.
 
Discussions similaires
Haut