Importance du nombre de pages d'un site pour le SEO

Discussion dans 'Débuter en référencement' créé par saluts92, 7 Juin 2018.

  1. saluts92
    saluts92 WRInaute impliqué
    Inscrit:
    12 Avril 2006
    Messages:
    692
    J'aime reçus:
    25
    Bonjour,

    Le nombre de pages (indexées) d'un site est-il important aux yeux de Google ?

    Autrement dit, pour une même qualité de page, un site de 100 pages a t-il moins de chance d'être bien classé qu'un site de 2000 pages ?

    En effet, je pose cette question car je m'apprête à passer mon site de 700 à 100 pages suite à l'identification d'une masse noire.
    Pour information les 600 pages désindexées ont un réel interet pour mes utilisateurs, mais pas en tant que Landing page (fort taux de rebond et très peu visité depuis moteur de recherche)
     
  2. Ervael
    Ervael WRInaute discret
    Inscrit:
    31 Octobre 2007
    Messages:
    142
    J'aime reçus:
    6
    A confirmer mais je ne pense pas qu'en terme SEO cela ait un impact en soit le fait d'avoir 2 ou 200 pages, dans le sens premier du terme. Le plus important à mon avis est que chaque page soit bien construite et classée au mieux, faisant que le SEO global du site soit bon, ce qui du coup peu donner un léger boost.
    Après si tu dis que tes 600 pages ont de l'intérêt, peut-être serait-il plus rentable de les retravailler pour les booster que les désindexer alors. Ce qui représente beaucoup de travail (je le sais mon site ayant plus de 500 pages), mais qui peut valoir beaucoup plus le coup sur le long terme. Parce que c'est ça aussi qu'il te faut regarder, ce que tu peux améliorer, pour un impact plus tard.
     
  3. saluts92
    saluts92 WRInaute impliqué
    Inscrit:
    12 Avril 2006
    Messages:
    692
    J'aime reçus:
    25
    meme optimiser je sais pertinemment que ces pages n'auront pas d'interet pour les utilisateurs de google.
    En effet lorsque l'on recherche une catégorie de produit ou un produit c'est à priori pour l'acheter, alors que mon site ne propose pas d'acheter les produits
    le taux de rebond pour ces pages est supérieure à 80%
     
  4. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 138
    J'aime reçus:
    350
  5. saluts92
    saluts92 WRInaute impliqué
    Inscrit:
    12 Avril 2006
    Messages:
    692
    J'aime reçus:
    25
    le taux de rebond est élevé UNIQUEMENT quand il s'agit de "page de destination", sinon en utilisation interne je vous assure que mes utilisateurs l'apprécient : c'est difficile à expliquer sans donner mon site (et je ne le veux pas) mais c'est un fait
    mais pourtant dans toutes les discussions sur ce forum et meme l'outil RTM que j'utilise disent qu'il faut éliminer la "masse noire" (soit en améliorant les pages, soit en les supprimant/désindexant).
    Cela est confirmée par le dernier article de Webrankinfo : https://www.webrankinfo.com/dossiers/conseils/pages-actives-sur-1-an

    j'ai donc quasiment pris la décision de les désindexer : me reste juste à voir si la proportion de ces pages (600 pour 700 pages totales du site) ne "choquera" pas Google ?
     
  6. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 138
    J'aime reçus:
    350
    ok, fais comme tu veux. En tout cas de mon côté j'ai toujours conseillé d'améliorer les pages et seulement quand c'est impossible, de les désindexer.
     
  7. saluts92
    saluts92 WRInaute impliqué
    Inscrit:
    12 Avril 2006
    Messages:
    692
    J'aime reçus:
    25
    je ne cherche pas à faire "comme je veux" mais "comme je peux"
    comme tu aurai du le lire en début de post, meme si le contenu est amélioré, le taux de rebond sera toujours TRES fort, donc ce ne sont pas des "landing page"

    Ma question était, et est toujours : est ce que la proportion des pages à désindexées (600 pour 700 pages totales du site) ne "choquera" pas Google ?
     
  8. indigene
    indigene WRInaute accro
    Inscrit:
    7 Septembre 2003
    Messages:
    3 753
    J'aime reçus:
    83
    Tu as la réponse dans ta question. Si tu te poses la question c'est que ça te choque et donc google ça va le choquer aussi car son algorithme cherche le plus possible à refléter le comportement des utilisateurs.
    Il est toujours très mauvais de supprimer un grand nombre de pages d'un coup car ça risque de faire en sorte que google réexamine entièrement tout le site et ça va prendre 6 mois pour que la réindexation et le classement dans les bases de google soit terminé. Il est pratiquement certain que certaines pages qui apportent beaucoup de visiteurs vont disparaître du classement avant de peut-être revenir dans quelques mois.

    De plus, les critères de google sont supérieurs à 300 mais il en existe une cinquantaine qui sont principaux et ont plus d'influence que les autres. Les liens sont par exemple très influents. Les liens externes surtout, mais, à moindre mesure, les liens internes.

    Supprimer de l'index 600 pages sur 700 ça va supprimer un énorme paquet de liens qui pointent actuellement vers les 100 pages les plus importantes. Donc fatalement leur positionnement va chuter car elles recevront moins de liens.

    Par principe, quand on a fait indexer quelque chose par google, il ne faut jamais revenir en arrière (sauf si c'est une erreur flagrante qui porte préjudice). C'est trop tard. Google enregistre tout et il va voir disparaître un énorme paquet de pages et de liens. Tu vas également perdre beaucoup sur la longue traine qui peut représenter jusqu'à plus de 50% des visiteurs si le linking interne est fait correctement. Donc prévoir une chute des visites de moitié.

    Mon conseil c'est un peu le même que ce que les autres t'ont dit :
    - améliorer la qualité de ces pages en termes de mots clés, UX, présentation
    - se servir de ces pages pour améliorer le linking interne en faisant des liens vers les 100 pages principales et en liant ces pages entre-elles pour notamment inciter les visiteurs à en visiter d'autres (par exemple : articles similaires, articles qui peuvent vous intéresser, pages au hasard, liens textuels insérés dans le contenu, etc...)
    - surtout faire les choses progressivement et pas sous forme de big-bang car ça déstabilise google et ça peut le forcer à tout réexaminer (donc risque de dire au revoir aux bons classements actuels)

    Pour info, en décembre, j'ai décidé de faire exactement l'inverse, c'est à dire passer artificiellement de 700 pages à 3000 pages. En effet, tous mes concurrents les plus importants ont environ 2000 pages dans l'index, dont 1500 de très très mauvaise qualité. Je suis en train de passer de 700 pages d'excellente qualité à 3000 dont 1500 de bonne qualité. Ca me fait beaucoup de duplicate content interne mais j'essaye maintenant d'améliorer l'UX, la présentation (faire varier les couleurs, centrer des passages, mettre des colonnes en cote-à-cote, ajouter des illustrations, etc...). Je vois déjà que l'apport massif de liens a un effet positif.
     
  9. indigene
    indigene WRInaute accro
    Inscrit:
    7 Septembre 2003
    Messages:
    3 753
    J'aime reçus:
    83
    Surtout si c'est de la désindexation en masse de façon très brutale. Google aime quand c'est progressif.

    Si c'est désindexer 3 pages par semaine ça passera inaperçu pour google mais ça va prendre 4 ans. Et ça ne va pas empêcher google de visiter ces pages si des liens sont faits vers elles. Surtout, ne pas mettre de liens nofollow !

    Ca ne changera rien à la masse noire car masse noire = masse de pages visitées en noindex (ou en index mais inutiles)

    Pour faire disparaître la masse noire il n'y a qu'une solution : supprimer physiquement ces pages et faire des redirections 301 pour éviter les erreurs 404. Mais un très grand nombre de redirections ce n'est pas bon non plus, google aime moins que les pages en statut 200.
     
  10. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 138
    J'aime reçus:
    350
    plutôt que de lancer des chiffres au hasard, pour ma part je préfère mesurer, surtout quand c'est très facile à faire. Il est tout à fait possible de savoir combien de visites chaque page a généré sur une période.

    si toi-mêmes tu utilises le terme "artificiellement" c'est qu'il y a un pb à la base...

    selon moi, se dire que plus on a de pages, plus on sera bon dans Google, quelle que soit la qualité de ces pages, c'est une technique qui date de 2008 environ.

    Brian Dean, excellent SEO largement reconnu, a choisi comme étape n°1 de sa méthode SEO d'identifier les pages "zombies", des pages pourries qui nuisent à l'ensemble du site. Je vous invite à regarder sa vidéo.
     
  11. indigene
    indigene WRInaute accro
    Inscrit:
    7 Septembre 2003
    Messages:
    3 753
    J'aime reçus:
    83
    Bon, comme monsieur l'admin préfère commenter mon intervention plutôt que de répondre en détail à l'intervenant qui pose la question, alors alons-y...

    Moi de mon côté j'avais cité une réponse pour l'appuyer avec plus de détails et pas pour la démonter. hein ?

    Par artificiellement je veux dire par là que c'est un algorithme qui me crée ces pages. Elles ne sont présentes que pour les mobiles et permettent d'avoir des contenus plus légers sur mobile, donc chargement plus rapide. Sur mobile, chacune de ces pages est unique et avec son propre contenu. Le soucis que ça pose c'est que parfois le contenu est un peu court. Sur desktop tout est rassemblé dans une seule page et les pages "artificielles" ne sont masquées. Ca revient un peu à faire comme on faisait il y a encore 5 ans : une version desktop www.example.com et une version mobile m.example.com

    L'histoire de mesurer ça ne veut strictement rien dire car les mesures sur deux sites différents peuvent êtres totalement différentes. Ma phrase était au conditionnel (peut représenter x%) et sans connaitre le site et ses véritables mesures concernant la longue traine je ne peux parler qu'au conditionnel. Donc, toujours en restant au conditionnel, les chiffres avancés conditionnels sont exacts. La longue traine PEUT représenter 50% des visites et on PEUT donc s'attendre à une chute de 50% des visites. Le jour où je m'exprimerai à l'impératif j'accepterai la remarque.

    A aucun moment je n'ai dit que plus il y avait de pages et plus c'était bon. Je dis que plus il y a de LIENS et mieux c'est. Perdre des liens c'est toujours mauvais. Exact ou non ?

    A aucun moment je n'ai dit "quelle que soit la qualité de ces pages", au contraire, j'ai écrit "améliorer l'UX, la présentation (faire varier les couleurs, centrer des passages, mettre des colonnes en cote-à-cote, ajouter des illustrations, etc...)" et "- améliorer la qualité de ces pages en termes de mots clés, UX, présentation"

    C'est bien joli d'identifier les pages zombies. Mais je pense que saluts92 les connait déjà puisqu'il veut en supprimer 600. Sa question portait sur "que faut-il faire ? Les supprimer de l'index ou faire une autre action ?". J'ai essayé de répondre du mieux possible à sa question contrairement à d'autres qui lui ont répondu "fait comme tu veux".
     
  12. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 138
    J'aime reçus:
    350
    non, je ne pense pas, quand il s'agit de liens internes issus de pages qui plus est de faible qualité. Ces pages n'ont aucune popularité autre que celle apportée par le reste du site.

    PS : faut pas s'énerver ! dans une discussion, il arrive qu'on réponde aux différents intervenants. Il se trouve que j'ai déjà donné des réponses à saluts92 en dehors de ce forum, ici je complète mes réponses.
     
  13. indigene
    indigene WRInaute accro
    Inscrit:
    7 Septembre 2003
    Messages:
    3 753
    J'aime reçus:
    83
    J'ajoute une citation tirée d'un autre post mais à laquelle j'adhère totalement et qui correspond un peu à ce que j'ai écrit plus haut

     
  14. indigene
    indigene WRInaute accro
    Inscrit:
    7 Septembre 2003
    Messages:
    3 753
    J'aime reçus:
    83
    Je ne suis pas trop d'accord avec cette affirmation. Des chiffres à présenter pour la prouver ?

    Pour moi un lien interne ne peut en aucun cas porter préjudice. Il permet simplement de faire repartir le "jus" arrivé sur la page de moindre qualité vers une page en corrélation mais de bonne qualité et d'augmenter le potentiel de cette dernière. Si on ne fait pas de liens le "jus" reste sur la page de mauvaise qualité et il est perdu pour l'ensemble du site.
    Des pages qu'on pourrait juger comme inutiles ont en réalité un rôle : celui de bien faire circuler le "jus" dans l'ensemble du site. C'est un peu comme le réseau d'artères et de veines du corps humain. Mieux le sang circule et mieux on se porte, non ? Avec seulement 100 pages c'est beaucoup plus difficile d'effectuer un bon linking interne.

    Selon moi, ce sont uniquement les liens externes qui peuvent être porteurs de nocivité pour le site. Particulièrement s'ils arrivent en grand nombre depuis des pages de mauvaise qualité.
     
  15. elas
    elas WRInaute impliqué
    Inscrit:
    26 Février 2008
    Messages:
    759
    J'aime reçus:
    31
    c'est peut être du cas par cas tout ça. Le SEO truc ou bidule a sans doute vu des choses même sur un panel de sites, mais dire que ça va marcher sur le site d'à côté ?????
    Si vous voulez des exemples, pourquoi pas, mais pourquoi est ce que super google plomberait des sites qui ont des pages non visitées. Il y a environ des tonnes de sites, qui ont comme trafic : le robot de google, le propriétaire et la mère du propriétaire. Ces mêmes sites sont classés dans le top 10 de google.
    Surtout, dans plein de sujets, il n'y a pas que le web instantané.
    Personnellement, même en 2018, je vois (mais je vois environ 0.0000000001 pour nano (pas sur) sites du web) que c'est plutôt des vieux sites qui ont plein de pages et de la consistance qui restent durablement dans le top10, au point qu'on arrive pas à les déloger, et que tout le monde essaie de comprendre leur secret de référencement.
    Virons les vieux SEO !!!! Ils squattent les top10 avec des vieilles pages (sinon personnellement j'ai du cottoyer par force des SEO anglo saxons de référence, style dave nayl... - tous des clowns péteurs)
    Bon mais c'est bientot la coupe du monde, fin de mes posts
     
    #15 elas, 13 Juin 2018
    Dernière édition: 13 Juin 2018
  16. Patrick Huet
    Patrick Huet WRInaute discret
    Inscrit:
    1 Octobre 2009
    Messages:
    193
    J'aime reçus:
    17
    Si beaucoup de sites anciens sont en première page, peut-être est-ce dû à un critère de fiabilité de Google.

    Quelque chose qui se traduirait en français par "Ils sont là depuis longtemps, donc on leur fait confiance".
     
  17. saluts92
    saluts92 WRInaute impliqué
    Inscrit:
    12 Avril 2006
    Messages:
    692
    J'aime reçus:
    25
    oui effectivement, mais l'ancienneté n'a rien à voir avec le nombre de page
     
Chargement...
Similar Threads - Importance nombre SEO Forum Date
Importance du nombre balise titre "h1", "h2", "h3" Débuter en référencement 17 Mars 2009
De l'importance des metadonnées Techniques avancées de référencement 29 Août 2018
Importance mots clés Débuter en référencement 20 Mars 2018
Importance de mettre à jour le contenu du site ? Débuter en référencement 14 Décembre 2017
Optimisation fiche produit : importance du fil d'ariane et balises Débuter en référencement 16 Octobre 2017
SEO sur Drupal - importance chaîne de caractères ? Débuter en référencement 20 Juillet 2017
Comment contourner l'importance du S dans Google Problèmes de référencement spécifiques à vos sites 30 Novembre 2016
Questionnaire : Impact et importance de l'utilisation des moteurs de recherche Débuter en référencement 25 Juillet 2016
Importance du crawl en cas de présence d'un sitemap XML dans Search Console Crawl et indexation Google, sitemaps 23 Juin 2016
[SEO] Importance de l'extension de nom de domaine en 2016? Débuter en référencement 4 Mars 2016
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice