See more, voir plus, infinite scroll...

Olivier Duffez (admin)
Membre du personnel
WRInaute occasionnel
Oui je suis toujours en prise avec mon site 100% JS. Je suis arrivée dans un projet déjà en cours donc pas possible de reculer. On a rendertron et SSR donc servir une version html aux bots mais du coup je suis bloquée avec ce truc de "voir plus". Je suis un peu deg de devoir apprendre sur le tas et découvrir tout un tas de problématiques au fur et à mesure que j'avance, donc si une bonne âme a un avis sur ce point précis...
 
WRInaute accro
Mais l'article que tu as donné en lien présente énormément de parti pris et certains points sont très très discutables. Comme par exemple ceux-ci :

Les inconvénients de la pagination
La pagination est mauvaise pour l’utilisateur car :

  • il doit cliquer et attendre que la page entière (suivante) se charge ce qui est trop long, sans compter que le lien vers la page suivante est parfois difficile à trouver ou à cliquer. D’ailleurs, il est habitué à faire défiler (sur mobile ou tablette) et préfère ça. Pourquoi le le temps de chargement serait-il long si la page a été correctement optimisée et ne présente pas une liste de 50 textes avec de grosses images ? Le temps de chargement est en général beaucoup plus rapide qu'une page article. Du moins c'est ce vers quoi il faut tendre.
  • il ne sait pas s’il va trouver ce qu’il cherche sur la page suivante, ou celle d’après, ou bien plus loin : il préfèrerait pouvoir affiner sa recherche. Justement, c'est ce qui éveille sa curiosité et l'incite à visiter plusieurs pages du site (ce qui est très bon pour le référencement). Les gens aiment bien fouiller et regarder rapidement tout ce qu'un site peut leur apporter si la première page sur laquelle ils sont tombé leur a plus. Présenter sous forme de pages de pagination un inventaire du contenu est une très bonne chose. Ça évite à l'internaute d'avoir à consulter les pages articles une par une et ça lui donne une idée d'ensemble.
  • s’il met en favoris une des pages de la pagination, il n’est pas sûr plus tard de retrouver ce qu’il voulait car l’ordre ou la liste des éléments peut avoir changé. Çà c'est vrai. Quoi que... Si la répartition des articles est bien effectuées entre les diverses pages de pagination on peut s'arranger pour que le contenu de la page reste similaire, même si les articles changent. Et personne n'a jamais dit qu'il fallait nommer ses pages 1, 2, 3, 4. On peut leur donner des noms plus personnalisés.
La pagination est très mauvaise pour le référencement car :

  • ça multiplie les URL à crawler sans pourtant se diversifier sur des expressions-clés différentes. Dit autrement, ça gâche plein de budget de crawl sans exploiter la longue traîne. Encore faut-il être d'accord sur ce qu'est le budget crawl. Selon moi ce n'est pas un budget au sens strict du terme (par exemple google envoie 1000 robots par jour sur un site A). Ça serait plutôt une fréquence de crawl attribuée à chaque page en fonction de sa popularité, de sa fraicheur et de sa fréquence de mise à jour. Si le budget crawl était réellement ce que tu sous-entend ça voudrait dire que quand on double la taille d'un site on ne verrait pas augmenter le nombre de pages crawlées par jour. Or, ce n'est évidemment pas le cas.
  • s’il y a de nombreuses URL de pagination (pages 2+), tous les liens qu’elles reçoivent font du « jus » en moins pour les pages stratégiques du site. Il serait bien mieux de consacrer les liens à pointer vers des pages stratégiques. Et qui te dis que les pages stratégiques ne peuvent pas être les pages de pagination justement. Moi le problème que j'avais avant c'était que mes pages de catégories (page 1 de la pagination) étaient très mal référencées.
  • les pages 2 et suivantes ont très peu de chances de bien se positionner dans Google, car :
    • leurs balises title et meta description ne sont guère différentes de celles de la page 1. Pourquoi voudrait-on mettre les mêmes titles et les mêmes méta description ? Qu'est-ce qui l'oblige ? Si le développeur est con, sans doute, mais s'il a un peut de jugeote il ne fera pas cette connerie.
    • les textes des liens qu’elles reçoivent n’ont pas de sens (pas de mots-clés). Mais qui empêche de faire des liens avec des mots clés ?
    • aucune autre page du site ne leur fait de lien. Qui empêche les autres pages du site de leur faire des liens ?
    • généralement, elles ne reçoivent jamais aucun lien venant d’autres sites. Il est clair que si on les a fait comme tu sembles le décrire c'est ce qui va arriver en effet. Mais si elles sont faites dans les règles de l'art qu'est-ce qui empêche les autres sites de faire des liens vers ces pages ?
  • les pages recevant des liens depuis les pages 2+ sont donc défavorisées, puisqu’elles reçoivent des liens venant de pages à très faible popularité (PageRank ou PageRank interne). Dans certains cas extrêmes, des pages ne reçoivent pourtant que des liens depuis ces pages 2+, ce qui est très mauvais (je les appelle pages Lost In Pagination). Mais qui interdit l'éditeur du site de faire du maillage interne entre pages ? C'est n'importe quoi cet argument.
  • un maillage reposant en majorité sur de la pagination augmente la profondeur des pages qui y sont liées. Et comme + une page est profonde, moins elle est performante en SEO, c’est une très mauvaise idée, surtout pour les gros sites. En quoi ça augmente la profondeur. Quand on a une liste de page 1, 2, 3, 4, 5... elles ont toutes la même profondeur, que la page cible soit en dernière position, au milieu ou au début.
  • s’il y a peu d’éléments par page et aucune optimisation, les pages paginées peuvent s’apparenter à des contenus dupliqués. Mais qui oblige l'éditeur à mettre du contenu dupliqué ? La page peut très bien être personnalisée et optimisée. Non ?

En conclusion, tous ces points que tu cites dans ton fameux article sont tous très très discutable sans exception. Je ne parle pas du reste de l'article avec lequel je suis assez en accord (il ne faut pas tout jeter, hein), mais cette partie spécifique m'a fait faire des bonds sur ma chaise. Il n'y a rien de nuancé. C'est penser que tous les gens qui développent des sites travaillent comme des bourrins.
 
Olivier Duffez (admin)
Membre du personnel
La différence avec toi, c'est que je complète mes explications (et mon avis) par des mesures. Du factuel, du réel. Et là, ça ne trompe personne. Cela dit, je ne vais surtout pas essayer de te convaincre. Bon WE.
 
WRInaute accro
oh! il est vexé.
Mais moi ce que j'ai fait sur mon site c'est exactement tout ce que j'ai écrit en rouge. C'est pour cela que je peux en parler autant, ce ne sont pas que des théories.
Si j'avais lu ton article avant on aurait pu dire que j'avais repris tous tes inconvénients pour faire exactement le contraire de ce que tu déconseilles. Mais j'ai simplement suivi les guideline de google qui sont en gros les mêmes depuis 20 ans.

Je n'ai pas été voir techniquement comment tu as fais la pagination pour ce forum mais pour l'expérience utilisateur je trouve que c'est pas mal. Pour le SEO je ne sais pas car il y a quelques années il y avait beaucoup plus de monde ici. En tous cas je ne savais même pas que tu avais appliqué les principes que tu énonces. Donc ce n'était pas pour critiquer ton site que j'ai écris tout ça, mais pour débattre des idées avec parti pris. Parce que pour moi une url c'est une url, donc elle doit avoir du maillage interne, de la profondeur depuis la page d'accueil, un title, un H1, un contenu, etc... au même titre que n'importe quelle autre url.
 
Discussions similaires
Haut