Quelques conseils : pagination et canonical

WRInaute passionné
Salut à tous,

J'aimerai avoir votre avis sur les questions ci-dessous :

1) J'ai plus de 100 000 articles dans mon catalogue, toutes les pages de mes articles ont une balise canonical du type <link rel="canonical" href="url-vers-url-canonique" />, je dois avoir +/- 4000 url canoniques. Dois-je lister les 100 000 url de mes articles dans le sitemap et le plan de mon site ou uniquement les 4000 url canoniques ?

2) J'ai lu cet article sur la pagination SEO et ou il est dit qu'en final la moins pire des solutions serait la solution basée sur link rel=next/prev mais dans mon cas avec 100 000 articles à lister, le nombre de pages de pagination est allucinant, quel humain va visiter la page 225 de mon listing de produits ? Sans parler des problématiques de pages zombies et de duplicate content que crée ce type de pagination. Je souhaiterai donc opter pour une solution radicale : supprimer la pagination du listing de mes produits. J'ai donc pensé à une solution qui supprime totalement ces pages de pagination, je n'afficherai plus que 40 ou 50 articles sur ma page qui liste mes produits. Etant donné que sur cette page j'ai un moteur de recherche en ajax qui filtre les produits, j'avais pensé à mettre en bas de mon listing des articles une info bulle du type (d'autres produits existent mais leur nombre est trop important, nous vous invitons à utiliser les filtres ci-dessus pour affiner les résultats) : que pensez-vous de cette solution en terme d'expérience utilisateur et SEO ?

3) Pour l'instant Google a référencé ces milliers de pages de pagination, si je supprime totalement la pagination, comment faire cela proprement d'un point de vue SEO ? Faut-il mettre en place une redirection des url supprimées ? Si oui vers quelle url ?

4) J'utilise le plugin Tabs jquery ui avec le chargement en ajax des tabs 2 et 3. Pour afficher le contenu de la tab 1 il y a ce code <li><a href="ajax/content1.php">Tab 1</a></li>, comment interdire à Google d'indéxer l'url ajax/content1.php (via le fichier robot.txt ou une autre solution) ? Pour info, il n'y a pas d'en-tête html dans ma page content1.php.

Merci pour vos réponses.
 
WRInaute impliqué
1) uniquement les canonical dans le sitemap

2) mauvaise idée à tout point de vue. i) ne pas décider à la place de l'utilisateur ce qu'il doit voir ou pas voir. Il est très peu probable qu'il fasse les 100 pages de listing, mais il doit pouvoir le faire s'il le souhaite. En tout cas ça lui donne une idée du nombre de références, à lui de filtrer s'il le souhaite. ii) du point de vue SEO, compter sur l'exploration AJAX des moteurs est audacieux, surtout avec ta dernière question. Laisse Google parcourir tes paginations à rallonge, mais pour diminuer le nombre de clics et l'effet pages enfouies, propose d'autres modes de navigation : par rubrique, par catégorie d'article, articles similaires sur les pages produits, etc. Qu'on s'entende, la pagination c'est pas idéal, mais c'est mieux que rien, c'est à dire des articles mal (voir pas) listés.

3) cf. 2, ne pas la supprimer, et si tu la supprimes, laisse-faire, même si une redirection 301 est plus propre (ou erreur 410 si pas remplacée), l'enjeu n'en vaut pas la peine. Toutefois, les pages de pagination ne sont pas supposées être indexées (noindex) : souhaites-tu que l'utilisateur tombe sur la page 23 de ta liste de produits ? probablement pas. Si elle a été indexée, il est probable qu'elle ne ranke pas, sa suppression n'attristera pas Google.
 
WRInaute passionné
Merci pour vos réponses.

1) uniquement les canonical dans le sitemap
Et pour le plan du site ?

2) mauvaise idée à tout point de vue. i) ne pas décider à la place de l'utilisateur ce qu'il doit voir ou pas voir. Il est très peu probable qu'il fasse les 100 pages de listing, mais il doit pouvoir le faire s'il le souhaite. En tout cas ça lui donne une idée du nombre de références, à lui de filtrer s'il le souhaite. ii) du point de vue SEO, compter sur l'exploration AJAX des moteurs est audacieux, surtout avec ta dernière question. Laisse Google parcourir tes paginations à rallonge, mais pour diminuer le nombre de clics et l'effet pages enfouies, propose d'autres modes de navigation : par rubrique, par catégorie d'article, articles similaires sur les pages produits, etc. Qu'on s'entende, la pagination c'est pas idéal, mais c'est mieux que rien, c'est à dire des articles mal (voir pas) listés.
Le problème c'est que j'ai des milliers de pages de pagination au contenu très proche (duplicate content), qui ne seront jamais accessible en 3 ou 4 clics, qui n'auront jamais de liens pertinents entrant (ou externes), qui seront assimilés à des pages zombies et qui dilue inutilement le jus de mon site. Vu sous cet angle que vaut-il mieux sacrifier : l'expérience utilisateur et supprimant ces pages de pagination ou garder cette pagination mais au détriment du SEO de mon site ?

Google sait-il analyser (crawler) une page dont une partie est produite en ajax ?

Toutefois, les pages de pagination ne sont pas supposées être indexées (noindex)
Es-tu certain de cela ? Voir cet article https://www.webrankinfo.com/dossiers/techniques/pagination (milieu de page : Les pages de la pagination doivent toutes être autorisées à l’indexation).
 
WRInaute impliqué
1) Chacun ses trucs pour les "plan de site". Pour moi ça n'a aucun intérêt. Les robots d'indexation préféreront le sitemap, et les utilisateurs n'utilisent pas le plan du site pour naviguer, ou en tout cas ne devraient pas : les menus, champs de recherche et autres sont préférables. Mais si tu as une page de plan en plus du sitemap, raison de plus pour ne mettre que les canonique.

2) Ce sont des pages de pagination, donc on s'en fout un peu qu'il y ait du duplicate : ce n'est pas elles que l'on cherche à indexer, donc si leur contenu est similaire, ce n'est pas grave. Quand j'évoque d'autre modes de navigation c'est directement vers les pages produit, pas vers les pages de pagination.

3) C'est mon point de vue. (i) Une fois encore, on ne souhaite pas indexer le contenu des pages de pagination, mais juste permettre l'indexation des produits, la directive noindex tombe sous le sens. (ii) Oui, ça va ralentir l'indexation, mais (a) c'est pas très grave, on ne cherche pas à ce qu'elles soient actualisées, juste que les liens vers les produits soient suivis, la page "une" sera toujours indexée, avec un tri par nouveauté on s'assure que les nouveaux produits sont indexés (ou toute autre manière pour que les nouveaux produits apparaissent pas trop profondément). Et (b) c'est un peu le but si ces pages sont moins crawlées, le jus de crawl sera plus disponible pour les autres. Par contre elles doivent toute être crawlables (et la page 1 indexable).
 
WRInaute accro
@poupilou
ouep, tu cherches la solution la moins pire car ton truc ca craint
lache l'affaire ou va sur 5euros com pour catégoriser tes fiches a moindre cout
bon courage
 
WRInaute passionné
2) Ce sont des pages de pagination, donc on s'en fout un peu qu'il y ait du duplicate : ce n'est pas elles que l'on cherche à indexer, donc si leur contenu est similaire, ce n'est pas grave.
Es tu certain que cela ne soit pas gênant d'un point de vue SEO ?

Une fois encore, on ne souhaite pas indexer le contenu des pages de pagination, mais juste permettre l'indexation des produits
Si tu as un sitemap et/ou un plan du site avec la liste de tes produits, Google trouvera ces url et indéxera ces pages, non ? Tu n'as pas besoin de passer par de la pagination pour faire cela.

@poupilou
ouep, tu cherches la solution la moins pire car ton truc ca craint
lache l'affaire ou va sur 5euros com pour catégoriser tes fiches a moindre cout
bon courage
Certains de mes concurrents ont supprimé les pages de pagination ou bien le code généré par leur listing de produits n'est pas visible (en dur) dans leur code html. Je ne suis pas le seul à chercher une solution à ce problème, tous les sites d'e-commerce ayant quelques milliers de produits sont confrontés au même dilemme, non ?
 
WRInaute impliqué
Es tu certain que cela ne soit pas gênant d'un point de vue SEO ?
Certain, on ne peut pas l'être de grand chose. Mais il est communément admis qu'une absence d'originalité du contenu d'une page empêche un classement efficace de cette page, et non que du contenu dupliqué sur certaines pages "plombe" le classement du site en lui même (sauf effets de bord, dilution du jus, etc.)

Si tu as un sitemap et/ou un plan du site avec la liste de tes produits, Google trouvera ces url et indéxera ces pages, non ?
Oui, à la condition qu'il s'intéresse à ton sitemap et en respecte un peu les infos (pages nouvelles ou nouvellement modifiées). Google fait un peu ce qu'il veut et n'aime pas qu'on lui dise quoi faire ; il compte sur ses algorithmes pour explorer un site comme le ferait un utilisateur. Pour autant, je considère utiles les sitemaps "techniques", parce qu'ils donnent une lecture claire (et en principe fidèle) d'un site et de ses changements. Toutefois, toute page doit être naturellement accessible autrement que par le sitemap, et je ne crois pas qu'un plan du site soit la manière la plus naturelle (justement) d'y accéder. Je ne suis pas certain non plus qu'une page contenant des dizaine de milliers de liens internes soit correctement et régulièrement explorée.

Certains de mes concurrents ont supprimé les pages de pagination ou bien le code généré par leur listing de produits n'est pas visible (en dur) dans leur code html. Je ne suis pas le seul à chercher une solution à ce problème, tous les sites d'e-commerce ayant quelques milliers de produits sont confrontés au même dilemme, non ?
D'autres les maintiennent, qui a raison ? Une fois encore, je trouve que c'est pertinent d'un point de vue utilisateur. Personne n'ira en page 100, c'est sûr, mais certains iront peut-être en page 4, d'autres en page 6, d'autres plus loin peut-être. Et dans tous les cas, je trouve que ça donne une impression de boutique bien fournie. C'est un point de vue personnel, mais quand une recherche m'indique "votre recherche retourne plus de x résultats, voici les x premiers", j'ai l'impression que le site a 20 ans de retard.

Le côté "c'est un problème inhérent à tous les sites de e-commerce" me fait dire que ce n'est du coup peut être pas tant un problème que ça du point de vue des sites, et que, dans l'idéal se serait au moteur de s'adapter à la manière dont les sites fonctionnent naturellement. J'ai conscience de ce que ce denier point a d'illusoire : mais c'est un peu ma "philosophie" : essayer de plaire aux utilisateurs plutôt qu'au moteur de recherche (et le singulier est ici volontaire).


Bref, dans tous les cas, les paginations à rallonge ne sont pas idéales, mais je vois mal des solutions plus satisfaisantes. Je ne crois pas qu'il faille réfléchir en terme de "pénalité", mais plus "d'utilité". Je veux dire, au pire la pagination à rallonge n'est pas très utile, mais est-elle pénalisante ?

Si elle n'est pas pénalisante, alors on peut la garder, et trouver d'autres moyens plus "utiles" pour naviguer et référencer les articles.
 
Dernière édition:
WRInaute accro
Certains de mes concurrents ont supprimé les pages de pagination ou bien le code généré par leur listing de produits n'est pas visible (en dur) dans leur code html. Je ne suis pas le seul à chercher une solution à ce problème, tous les sites d'e-commerce ayant quelques milliers de produits sont confrontés au même dilemme, non ?
j'en sais rien, je sais pas ce que tu vends, a quoi servent tes pages, le SEO c'est du cas par cas, donc dans une logique pur SEO je dirais que créer des milliers pages satellites c'est naze, apres tout depend de la valeur de la page, c'est pas la meme si tu vends des produits a fortes valeurs ajoutés ou si vends du bazard a 10 balles
 
WRInaute passionné
Mais il est communément admis qu'une absence d'originalité du contenu d'une page empêche un classement efficace de cette page, et non que du contenu dupliqué sur certaines pages "plombe" le classement du site en lui même (sauf effets de bord, dilution du jus, etc.)
N'y a-t-il pas dilution de jus si tu as des milliers de pages de pagination (indexables) au contenu, titre et description très similaires... et qui ne seront jamais visitées par un humain ?
 
WRInaute impliqué
N'y a-t-il pas dilution de jus si tu as des milliers de pages de pagination (indexables) au contenu, titre et description très similaires...
Si, et c'est pourquoi (entre autre) je suis d'avis de les rendre non-indexables, pour limiter cet effet (et aussi parce que ce ne sont pas des pages sur lesquelles on s'attend à ce que soient dirigés les internautes depuis l'extérieur).
 
Olivier Duffez (admin)
Membre du personnel
je pensais que mon dossier était assez clair, ça ne l'est pas semble-t-il. Pour info, je l'ai complété par d'autres explications : trop de pagination nuit au SEO et mon algo des "pages LIP".

la moins pire des solutions serait la solution basée sur link rel=next/prev
ce n'est pas ce qui est écrit. j'ai indiqué "si vraiment vous avez besoin de la pagination"... et ensuite j'ai détaillé les règles à suivre dans ce cas (notamment autoriser le crawl ET l'indexation des pages 2+), mais aussi ce qu'on peut faire de mieux que la pagination.

d'ailleurs au final, comment est-ce possible de générer 100.000 articles pour seulement 4000 produits distincts ? est-ce infaisable autrement ?
 
WRInaute passionné
notamment autoriser le crawl ET l'indexation des pages 2+
emualliug est d'avis de ne pas indexer les pages de pagination ? C'est quoi la bonne pratique en la matière ? Comme je l'ai indiqué ci-dessus certains de mes concurrents n'ont plus de page de pagination et le SEO de leur site est très bon... ne serait-ce pas cela la solution ? A quoi ça sert d'avoir des centaines de pages de pagination quand on sait qu'aucun humain ne visitera la page > à la 2 ? Si la seule raison est qu'il faut que les crawlers trouvent les url des produits alors un sitemap et/ou un plan de site suffit amplement, non ? En créant des centaines de pages de pagination (qui n'ont aucune utilité pour l'utilisateur et nuiront au SEO du site) on se tire une balle dans le pied. A mort les pages de pagination : hasta siempre !
 
Olivier Duffez (admin)
Membre du personnel
ces pages sont nécessaires pour faire des liens vers les produits concernés. Un sitemap ne sert qu'à faire connaître l'existence des URL (et à aider les analyses dans la search console), mais il n'envoie aucun "jus" : c'est insuffisant.
un plan du site pour lister les 4000 produits ? sérieux... Pour moi, un bon site ne doit pas avoir besoin d'un plan (page HTML).

la meilleure solution est de se demander pourquoi générer 100.000 produits au lieu de 4.000, et au final de se débrouiller pour ne plus avoir besoin du tout de pagination.

certains de mes concurrents n'ont plus de page de pagination et le SEO de leur site est très bon
s'ils n'ont pas de pages de pagination car leur architecture et leur maillage font qu'ils n'en ont pas besoin, ça ne m'étonne pas que ce soit mieux
cela étant, je me méfie beaucoup des "oui mais mon concurrent fait ça et son SEO est meilleur" car les raisons de son succès sont parfois très différentes
 
WRInaute passionné
Pour infos, les 2 leaders américains dans mon domaine et qui ont +/- le même nombre de produits dans leur catalogue que moi utilisent tous les deux le scroll infini pour lister leurs produits. L'un réalise 500 millions de CA et l'autre 300 millions : soit ils ont embauché des triples nouilles comme webmasters, soit leurs webmasters n'ont pas trouvé mieux que le scroll infini. Ma solution ne peut pas être pire que la leur, non ?

D'autre part, chacune des url de leurs produits ont un lien canonical correspondant à chaque url.

Je vais placer sur chaque page de mes produits des liens vers mes autres produits similaires, cela permettra aux crawlers de trouver ces pages et de les indexer. Je ne crois pas que la page de pagination n° 1290 puisse envoyer un quelconque jus aux liens de cette page. Et au lieu de placer 100 000 liens canonicals (un pour chaque produit), j'en aurais "que" 4000 : Google devrait apprécier cela, non ?

Je suis persuadé que Google fait la chasse au gaspillage de ses ressources, il doit y avoir une sorte de bonus pour les sites qui lui font économiser des crawls et pour les autres sites mal conçu (mauvaise architecture) il met une pénalité sur ce site histoire de forcer le webmaster à mettre de l'ordre sur son site et à réduire le nombre de crawls (qu'il juge inutile).
 
Olivier Duffez (admin)
Membre du personnel
utilisent tous les deux le scroll infini pour lister leurs produits
si c'est uniquement le scroll infini, il est possible que Google n'ait pas connaissance de la plupart des fiches produits et ne perde donc pas son temps à crawler plein d'URL inutiles.
si c'est doublé de liens vers la pagination, ça ne change rien

L'un réalise 500 millions de CA et l'autre 300 millions : soit ils ont embauché des triples nouilles comme webmasters, soit leurs webmasters n'ont pas trouvé mieux que le scroll infini.
je doute un peu que les 300 ou 500 millions de CA dépendent du mode de pagination :) il est "possible" que d'autres facteurs interviennent ici

Je suis persuadé que Google fait la chasse au gaspillage de ses ressources, il doit y avoir une sorte de bonus pour les sites qui lui font économiser des crawls
c'est que je me tue à expliquer depuis le début : la meilleure solution est de ne plus générer ces 100 000 URL mais se concentrer sur les 4000
 
WRInaute passionné
si c'est uniquement le scroll infini, il est possible que Google n'ait pas connaissance de la plupart des fiches produits et ne perde donc pas son temps à crawler plein d'URL inutiles.
Leurs fiches produits sont bien indexées par Google.

c'est que je me tue à expliquer depuis le début : la meilleure solution est de ne plus générer ces 100 000 URL mais se concentrer sur les 4000
Les 4000 urls (produits) seront mes canoniques (ça c'est pour les crawlers) mais il faut que mes clients (humains) puissent visualiser (et pouvoir acheter) les 96000 autres produits (si aucun des 4000 produits ne leur convient).
 
Discussions similaires
Haut