Le nombre de pages, ça a eû payé! ou : Les effets négatifs du tout sémantique

aCOSwt

WRInaute discret
Bonjour,

Tout ce qui suit n'est tiré que de mon expérience personnelle.
Et, comme cette expérience est plutôt négative, je serai heureux de lire les contradicteurs, ceux qui diront que je me plante et pourquoi! :p

Dans les premiers temps, du temps des diktats du pagerank-à-l'ancienne, le nombre de pages d'un site avait une influence significative sur son classement.
C'est pourquoi les domaines tels que microsoft, wikipedia... sortaient régulièrement voire définitivement dans les premières suggestions suite à une recherche sur à peu près n'importe quoi.
Dans ces temps là, à backlinks constants, j'avais pu noter l'impact Konsidérable pour un de mes sites du passage de 10 à 50 pages, 50 à 200, 200 à 1000+

Dans une même situation de nos jours, (et toujours à backlinks constants) sur d' autres sites, j'ai l'impression que GG fait un peu de différence entre 10 et 200 mais... plus vraiment au-dessus de 200.

Alors que GG clame partout qu'il favorise les sites riches en contenu original, j'ai tout de même l'impression que l'abandon (ou la moindre prise en compte de ce critère de nombre de pages) va à l'encontre du but officiellement déclaré.
Et que, par surcroît, un site au contenu riche et original est même indirectement pénalisé par leur pseudo-sémantisme puisque, plus le site est riche en contenu original et plus l'accroissement du nombre de pages se traduira par une dilution de toute expression-clé quelle qu'elle soit!

On m'opposera le fait que, indirectement, le nombre de pages accroît les probabilités de recevoir un backlink.
Je répondrai que certes mais... 9 fois sur 10 en nofollow, ce qui... ne sert pas à grand-chose.

On m'opposera aussi le fait que le cross-linking cela existe mais... pour un site riche en contenu original... trouver un cross-linking "naturel" n'a rien de... naturel :mrgreen: et se fera par conséquent à l'encontre des intérêts du visiteur.

Donc... voilà un peu où j'en suis... à me dire surtout pas plus de 200 pages par domaine...
à votre avis ?
 

aCOSwt

WRInaute discret
En même temps zikeur54... avec 54363 sites hébergés, tu ne serais pas un peu complice par hasard ? :D

Et puis quand on a des sites qui, sur leur page d'accueil affirment AVOIR DEPOUILLE LA PAGE D'ACCUEIL en fonte de cinquantedouze qu'il faut scroller 15 pages écran pour passer de AVOIR à ACCUEIL... :wink: cela ne lui prend pas trop de temps pour analyser à Google. Pour moi, à voir, par contre, si! :evil:
C'est bien fait ça aussi ? :mrgreen:

Bon... je dis ça pour rire un peu aussi... car dans le fond, je l'aime bien ton site! 8)
 

indigene

WRInaute accro
Il n'y a pas que le nombre de pages, il y a la façon dont elles sont liées entre-elles

Avec un grand nombre de pages c'est quand même plus facile. En particulier pour varier
 

aCOSwt

WRInaute discret
Oui indigène, c'est mathématiquement vrai.
Sauf que, comme je le suggérais dans l'OP, plus le site est riche en contenu original, que chaque page traite honnêtement et précisément de son sujet et moins il sera facile de trouver des points communs entre les pages qui puissent justifier d'un lien "naturel".
J'entends par "pas facile" le fait qu'il faudra qu'un humain qui a lu et compris les pages le fasse. Qu'un automate ne pourrait pas le faire.
J'avais tenté de résoudre ce problème "d'automatisation" des liens internes en soumettant des requêtes sur GG search et en relevant toutes les pages de mon site sorties dans les 50 premières en me disant que... si GG les trouvait ensemble par une recherche "naturelle" c'est que... un lien entre elles serait tenu pour... hmmm... "naturel"! :mrgreen:
Mais bon... cela n'a pas trop marché...
Je veux dire au sens où ce système ne me sortait rarement plus d'une paire de pages pour chaque requête et que le positionnement d'un lien entre les deux ne se traduisait pas par une progression remarquable (en dehors du bruit) du classement des pages en question.
 

indigene

WRInaute accro
aCOSwt a dit:
Sauf que, comme je le suggérais dans l'OP, plus le site est riche en contenu original, que chaque page traite honnêtement et précisément de son sujet et moins il sera facile de trouver des points communs entre les pages qui puissent justifier d'un lien "naturel".
C'est pour cela qu'il existe un métier qui s'appelle "rédacteur web"

De mon côté c'est exactement l'inverse. Je viens de mettre en place pour mon client un système automatique de nuage de mots installé dans les billets du blog interne pour faire des liens internes vers les articles du site et ça fonctionne à merveille. Grosse progression au niveau du nombre d'impression : +100%
 

aCOSwt

WRInaute discret
indigene a dit:
...un système automatique de nuage de mots installé dans les billets du blog interne pour faire des liens internes vers les articles du site et ça fonctionne à merveille. Grosse progression au niveau du nombre d'impression : +100%
Pour ce qui est de l'augmentation du trafic je n'en doute pas, maintenant, dans cette rubrique "Référencement Google", je parlais exclusivement de ranking par les SERPS. ça aide encore au référencement ça les nuages de tags ? Je croyais que GG les reconnaissait et les ignorait. :?:
 

indigene

WRInaute accro
Je n'ai pas parlé de clics mais bien de nombre d'impressions c'est à dire d'affichage du lien dans un résultat de recherche.
Pour que le site sorte sur une requête il faut qu'il soit bien positionné, non ?

Si google le reconnait et l'ignore c'est que c'est mal fait. C'est comme les contenus en onglets cachés. Si c'est bien fait c'est toujours référencé. Si c'est mal fait google considère que c'est du texte caché et l'ignore
 

Marc_Saubion

Nouveau WRInaute
indigene a dit:
aCOSwt a dit:
Sauf que, comme je le suggérais dans l'OP, plus le site est riche en contenu original, que chaque page traite honnêtement et précisément de son sujet et moins il sera facile de trouver des points communs entre les pages qui puissent justifier d'un lien "naturel".
C'est pour cela qu'il existe un métier qui s'appelle "rédacteur web"

De mon côté c'est exactement l'inverse. Je viens de mettre en place pour mon client un système automatique de nuage de mots installé dans les billets du blog interne pour faire des liens internes vers les articles du site et ça fonctionne à merveille. Grosse progression au niveau du nombre d'impression : +100%

Ce n'est pas assimilable à du spam ce nuage de mots? J'ai remarqué qu'un concurrent bien référencé en a un mais j'hésite à faire pareil car ça plaira peut être au google bot mais pas au visiteur et surtout, c'est un coup à se prendre une pénalité le jour où google s’aperçoit de cette faille.
 

Doubrovski

WRInaute occasionnel
Le nombre de page n'a pas grand chose à voir avec la qualité du site... En général c'est plutôt l'inverse, à moins que le site soit très ancien ou qu'un contenu de qualité soit généré par un grand nombre d'utilisateur/rédacteurs. Mais ceci est très variable.
Je ne comprends pas non plus la remarque sur la "dilution" des expressions clés, car je ne pense pas que google résonne de cette manière. Aujourd'hui des réseaux de neurones sont capables de résoudre des problèmes complexes (milliers de paramètres) et de juger de la qualité d'une page, d'un site, d"un texte. C'est discutable, mais on ne peut pas résumer ça à la présence d'un mot dans un groupe de mots.
 

Discussions similaires

Haut