Importance du nombre de pages d'un site pour le SEO

WRInaute passionné
Bonjour,

Le nombre de pages (indexées) d'un site est-il important aux yeux de Google ?

Autrement dit, pour une même qualité de page, un site de 100 pages a t-il moins de chance d'être bien classé qu'un site de 2000 pages ?

En effet, je pose cette question car je m'apprête à passer mon site de 700 à 100 pages suite à l'identification d'une masse noire.
Pour information les 600 pages désindexées ont un réel interet pour mes utilisateurs, mais pas en tant que Landing page (fort taux de rebond et très peu visité depuis moteur de recherche)
 
WRInaute occasionnel
A confirmer mais je ne pense pas qu'en terme SEO cela ait un impact en soit le fait d'avoir 2 ou 200 pages, dans le sens premier du terme. Le plus important à mon avis est que chaque page soit bien construite et classée au mieux, faisant que le SEO global du site soit bon, ce qui du coup peu donner un léger boost.
Après si tu dis que tes 600 pages ont de l'intérêt, peut-être serait-il plus rentable de les retravailler pour les booster que les désindexer alors. Ce qui représente beaucoup de travail (je le sais mon site ayant plus de 500 pages), mais qui peut valoir beaucoup plus le coup sur le long terme. Parce que c'est ça aussi qu'il te faut regarder, ce que tu peux améliorer, pour un impact plus tard.
 
WRInaute passionné
meme optimiser je sais pertinemment que ces pages n'auront pas d'interet pour les utilisateurs de google.
En effet lorsque l'on recherche une catégorie de produit ou un produit c'est à priori pour l'acheter, alors que mon site ne propose pas d'acheter les produits
le taux de rebond pour ces pages est supérieure à 80%
 
WRInaute passionné
le taux de rebond est élevé UNIQUEMENT quand il s'agit de "page de destination", sinon en utilisation interne je vous assure que mes utilisateurs l'apprécient : c'est difficile à expliquer sans donner mon site (et je ne le veux pas) mais c'est un fait
à mon avis il faut trouver une meilleure solution que désindexer aussi brutalement autant de pages
mais pourtant dans toutes les discussions sur ce forum et meme l'outil RTM que j'utilise disent qu'il faut éliminer la "masse noire" (soit en améliorant les pages, soit en les supprimant/désindexant).
Cela est confirmée par le dernier article de Webrankinfo : https://www.webrankinfo.com/dossiers/conseils/pages-actives-sur-1-an

j'ai donc quasiment pris la décision de les désindexer : me reste juste à voir si la proportion de ces pages (600 pour 700 pages totales du site) ne "choquera" pas Google ?
 
Olivier Duffez (admin)
Membre du personnel
ok, fais comme tu veux. En tout cas de mon côté j'ai toujours conseillé d'améliorer les pages et seulement quand c'est impossible, de les désindexer.
 
WRInaute passionné
ok, fais comme tu veux
je ne cherche pas à faire "comme je veux" mais "comme je peux"
comme tu aurai du le lire en début de post, meme si le contenu est amélioré, le taux de rebond sera toujours TRES fort, donc ce ne sont pas des "landing page"

Ma question était, et est toujours : est ce que la proportion des pages à désindexées (600 pour 700 pages totales du site) ne "choquera" pas Google ?
 
WRInaute accro
Tu as la réponse dans ta question. Si tu te poses la question c'est que ça te choque et donc google ça va le choquer aussi car son algorithme cherche le plus possible à refléter le comportement des utilisateurs.
Il est toujours très mauvais de supprimer un grand nombre de pages d'un coup car ça risque de faire en sorte que google réexamine entièrement tout le site et ça va prendre 6 mois pour que la réindexation et le classement dans les bases de google soit terminé. Il est pratiquement certain que certaines pages qui apportent beaucoup de visiteurs vont disparaître du classement avant de peut-être revenir dans quelques mois.

De plus, les critères de google sont supérieurs à 300 mais il en existe une cinquantaine qui sont principaux et ont plus d'influence que les autres. Les liens sont par exemple très influents. Les liens externes surtout, mais, à moindre mesure, les liens internes.

Supprimer de l'index 600 pages sur 700 ça va supprimer un énorme paquet de liens qui pointent actuellement vers les 100 pages les plus importantes. Donc fatalement leur positionnement va chuter car elles recevront moins de liens.

Par principe, quand on a fait indexer quelque chose par google, il ne faut jamais revenir en arrière (sauf si c'est une erreur flagrante qui porte préjudice). C'est trop tard. Google enregistre tout et il va voir disparaître un énorme paquet de pages et de liens. Tu vas également perdre beaucoup sur la longue traine qui peut représenter jusqu'à plus de 50% des visiteurs si le linking interne est fait correctement. Donc prévoir une chute des visites de moitié.

Mon conseil c'est un peu le même que ce que les autres t'ont dit :
- améliorer la qualité de ces pages en termes de mots clés, UX, présentation
- se servir de ces pages pour améliorer le linking interne en faisant des liens vers les 100 pages principales et en liant ces pages entre-elles pour notamment inciter les visiteurs à en visiter d'autres (par exemple : articles similaires, articles qui peuvent vous intéresser, pages au hasard, liens textuels insérés dans le contenu, etc...)
- surtout faire les choses progressivement et pas sous forme de big-bang car ça déstabilise google et ça peut le forcer à tout réexaminer (donc risque de dire au revoir aux bons classements actuels)

Pour info, en décembre, j'ai décidé de faire exactement l'inverse, c'est à dire passer artificiellement de 700 pages à 3000 pages. En effet, tous mes concurrents les plus importants ont environ 2000 pages dans l'index, dont 1500 de très très mauvaise qualité. Je suis en train de passer de 700 pages d'excellente qualité à 3000 dont 1500 de bonne qualité. Ca me fait beaucoup de duplicate content interne mais j'essaye maintenant d'améliorer l'UX, la présentation (faire varier les couleurs, centrer des passages, mettre des colonnes en cote-à-cote, ajouter des illustrations, etc...). Je vois déjà que l'apport massif de liens a un effet positif.
 
WRInaute accro
ok, fais comme tu veux. En tout cas de mon côté j'ai toujours conseillé d'améliorer les pages et seulement quand c'est impossible, de les désindexer.
Surtout si c'est de la désindexation en masse de façon très brutale. Google aime quand c'est progressif.

Si c'est désindexer 3 pages par semaine ça passera inaperçu pour google mais ça va prendre 4 ans. Et ça ne va pas empêcher google de visiter ces pages si des liens sont faits vers elles. Surtout, ne pas mettre de liens nofollow !

Ca ne changera rien à la masse noire car masse noire = masse de pages visitées en noindex (ou en index mais inutiles)

Pour faire disparaître la masse noire il n'y a qu'une solution : supprimer physiquement ces pages et faire des redirections 301 pour éviter les erreurs 404. Mais un très grand nombre de redirections ce n'est pas bon non plus, google aime moins que les pages en statut 200.
 
Olivier Duffez (admin)
Membre du personnel
Tu vas également perdre beaucoup sur la longue traine qui peut représenter jusqu'à plus de 50% des visiteurs si le linking interne est fait correctement. Donc prévoir une chute des visites de moitié
plutôt que de lancer des chiffres au hasard, pour ma part je préfère mesurer, surtout quand c'est très facile à faire. Il est tout à fait possible de savoir combien de visites chaque page a généré sur une période.

passer artificiellement de 700 pages à 3000 pages
si toi-mêmes tu utilises le terme "artificiellement" c'est qu'il y a un pb à la base...

selon moi, se dire que plus on a de pages, plus on sera bon dans Google, quelle que soit la qualité de ces pages, c'est une technique qui date de 2008 environ.

Brian Dean, excellent SEO largement reconnu, a choisi comme étape n°1 de sa méthode SEO d'identifier les pages "zombies", des pages pourries qui nuisent à l'ensemble du site. Je vous invite à regarder sa vidéo.
 
WRInaute accro
Bon, comme monsieur l'admin préfère commenter mon intervention plutôt que de répondre en détail à l'intervenant qui pose la question, alors alons-y...

Moi de mon côté j'avais cité une réponse pour l'appuyer avec plus de détails et pas pour la démonter. hein ?

Par artificiellement je veux dire par là que c'est un algorithme qui me crée ces pages. Elles ne sont présentes que pour les mobiles et permettent d'avoir des contenus plus légers sur mobile, donc chargement plus rapide. Sur mobile, chacune de ces pages est unique et avec son propre contenu. Le soucis que ça pose c'est que parfois le contenu est un peu court. Sur desktop tout est rassemblé dans une seule page et les pages "artificielles" ne sont masquées. Ca revient un peu à faire comme on faisait il y a encore 5 ans : une version desktop www.example.com et une version mobile m.example.com

L'histoire de mesurer ça ne veut strictement rien dire car les mesures sur deux sites différents peuvent êtres totalement différentes. Ma phrase était au conditionnel (peut représenter x%) et sans connaitre le site et ses véritables mesures concernant la longue traine je ne peux parler qu'au conditionnel. Donc, toujours en restant au conditionnel, les chiffres avancés conditionnels sont exacts. La longue traine PEUT représenter 50% des visites et on PEUT donc s'attendre à une chute de 50% des visites. Le jour où je m'exprimerai à l'impératif j'accepterai la remarque.

A aucun moment je n'ai dit que plus il y avait de pages et plus c'était bon. Je dis que plus il y a de LIENS et mieux c'est. Perdre des liens c'est toujours mauvais. Exact ou non ?

A aucun moment je n'ai dit "quelle que soit la qualité de ces pages", au contraire, j'ai écrit "améliorer l'UX, la présentation (faire varier les couleurs, centrer des passages, mettre des colonnes en cote-à-cote, ajouter des illustrations, etc...)" et "- améliorer la qualité de ces pages en termes de mots clés, UX, présentation"

C'est bien joli d'identifier les pages zombies. Mais je pense que saluts92 les connait déjà puisqu'il veut en supprimer 600. Sa question portait sur "que faut-il faire ? Les supprimer de l'index ou faire une autre action ?". J'ai essayé de répondre du mieux possible à sa question contrairement à d'autres qui lui ont répondu "fait comme tu veux".
 
Olivier Duffez (admin)
Membre du personnel
Perdre des liens c'est toujours mauvais. Exact ou non ?
non, je ne pense pas, quand il s'agit de liens internes issus de pages qui plus est de faible qualité. Ces pages n'ont aucune popularité autre que celle apportée par le reste du site.

PS : faut pas s'énerver ! dans une discussion, il arrive qu'on réponde aux différents intervenants. Il se trouve que j'ai déjà donné des réponses à saluts92 en dehors de ce forum, ici je complète mes réponses.
 
WRInaute accro
J'ajoute une citation tirée d'un autre post mais à laquelle j'adhère totalement et qui correspond un peu à ce que j'ai écrit plus haut

Slt,

Je ne dirais qu'une chose primordiale, on ne désindexe pas une page pour en favoriser une autre.
On remanie une page pour qu'elle ait plus de valeur ou on la supprime définitivement.
 
WRInaute accro
non, je ne pense pas, quand il s'agit de liens internes issus de pages qui plus est de faible qualité.

Je ne suis pas trop d'accord avec cette affirmation. Des chiffres à présenter pour la prouver ?

Pour moi un lien interne ne peut en aucun cas porter préjudice. Il permet simplement de faire repartir le "jus" arrivé sur la page de moindre qualité vers une page en corrélation mais de bonne qualité et d'augmenter le potentiel de cette dernière. Si on ne fait pas de liens le "jus" reste sur la page de mauvaise qualité et il est perdu pour l'ensemble du site.
Des pages qu'on pourrait juger comme inutiles ont en réalité un rôle : celui de bien faire circuler le "jus" dans l'ensemble du site. C'est un peu comme le réseau d'artères et de veines du corps humain. Mieux le sang circule et mieux on se porte, non ? Avec seulement 100 pages c'est beaucoup plus difficile d'effectuer un bon linking interne.

Selon moi, ce sont uniquement les liens externes qui peuvent être porteurs de nocivité pour le site. Particulièrement s'ils arrivent en grand nombre depuis des pages de mauvaise qualité.
 
WRInaute impliqué
c'est peut être du cas par cas tout ça. Le SEO truc ou bidule a sans doute vu des choses même sur un panel de sites, mais dire que ça va marcher sur le site d'à côté ?????
Si vous voulez des exemples, pourquoi pas, mais pourquoi est ce que super google plomberait des sites qui ont des pages non visitées. Il y a environ des tonnes de sites, qui ont comme trafic : le robot de google, le propriétaire et la mère du propriétaire. Ces mêmes sites sont classés dans le top 10 de google.
Surtout, dans plein de sujets, il n'y a pas que le web instantané.
Personnellement, même en 2018, je vois (mais je vois environ 0.0000000001 pour nano (pas sur) sites du web) que c'est plutôt des vieux sites qui ont plein de pages et de la consistance qui restent durablement dans le top10, au point qu'on arrive pas à les déloger, et que tout le monde essaie de comprendre leur secret de référencement.
Virons les vieux SEO !!!! Ils squattent les top10 avec des vieilles pages (sinon personnellement j'ai du cottoyer par force des SEO anglo saxons de référence, style dave nayl... - tous des clowns péteurs)
Bon mais c'est bientot la coupe du monde, fin de mes posts
 
Dernière édition:
WRInaute occasionnel
Si beaucoup de sites anciens sont en première page, peut-être est-ce dû à un critère de fiabilité de Google.

Quelque chose qui se traduirait en français par "Ils sont là depuis longtemps, donc on leur fait confiance".
 
Discussions similaires
Haut