Wordpress : Afficher les listings d'articles en random, bonne idée ?

WRInaute discret
Bonjour,

J'ai un annuaire téléphonique sous wordpress, dont les listings n'ont pas vraiment d'intérêt pour le visiteur puisque contrairement à un blog classique, les derniers articles ne sont pas plus intéressants ou plus d'actualité que les derniers. Ainsi, c'est uniquement via une recherche ou en arrivant directement sur une page interne de type fiche entreprise que le visiteur trouvera son bonheur.

Je me suis donc demandé s'il n'était pas judicieux d'afficher l'ensemble de ces listings en random (la page d'accueil et ses multiples page2, page3, etc. mais aussi les pages de listings de type tags ou catégorie). D'un autre côté, avoir à chaque passage de robots des milliers de pages dont l'ordre des items a changé n'est-il pas préjudiciable?

Sachant que certaines pages restent fixes, à savoir les fiches des pros (bien que comportant des zones rédactionnelles changeant au refresh, elles comportent aussi certains blocs fixes).

Quel serait selon vous la méthode d'affichage la plus judicieuse? Sachant que le site n'est jamais mis à jour au niveau d'ajout de nouvelles pages, donc qu'un tri par articles récents donnerait lieu à un ensemble de pages figées.

Risqué de mettre du random pour tous les listings ?
Merci d'avance !
 
WRInaute passionné
un random a l'intérieur d'une page à la limite mais sur une série de pages c'est à mon avis une mauvaise idée à cause du passage de googlebot sur toutes les pages à des moments différents.
 
WRInaute discret
forty a dit:
un random a l'intérieur d'une page à la limite mais sur une série de pages c'est à mon avis une mauvaise idée à cause du passage de googlebot sur toutes les pages à des moments différents.
J'ai du mal à te suivre. Le passage de GGbot sur toutes les pages à des moments différents donnera donc lieu, selon Google toujours, à une mise à jour de l'ensemble des pages crawlées non ? C'est à ton sens un problème ça ?
 
WRInaute passionné
si tu fais un random avec une liste sur plusieurs pages googlebot risque de trouver sur la page 1 récupérée hier : "a", "d", "e" et sur la page 2 récupérée aujourd'hui : "b", "c", "d".
Il va donc trouver deux fois "d" sur deux pages différentes.

S'il récupère la page 1 à nouveau demain il va peut-être trouver "b", "d", "e" et donc "b" sur deux pages différentes.

Pour moi la solution c'est d'ajouter une balise canonical sur toutes les pages de la liste qui pointent vers une seule page contenant tous les éléments. Cette page "all" peut alors être triée en random sans risque et avec un meta robots "noindex,follow" elle ne sera pas indexée mais permettra l'indexation des liens qu'elle contient.
 
WRInaute accro
triphop59182 a dit:
les listings n'ont pas vraiment d'intérêt pour le visiteur puisque contrairement à un blog classique, les derniers articles ne sont pas plus intéressants ou plus d'actualité que les derniers...
Certes mais c'est les derniers publiés qui ont besoins d'avoir de la visibilité donc l'ordre chronologique donne ce plus.
Qui plus est si tu assure la promo des nouveauté via les réseaux, l'ordre te permettra une gestion plus facile plus une logique de suivi compréhensible pour ton lectorat qui lui a ses habitudes avec d'autres sites.
Ensuite pour finir quid de l'entreprise qui ne verra pas sa fiche en pôle position comme elle peut s'attendre a la voir suite a sa publication ?
 
WRInaute discret
zeb a dit:
triphop59182 a dit:
les listings n'ont pas vraiment d'intérêt pour le visiteur puisque contrairement à un blog classique, les derniers articles ne sont pas plus intéressants ou plus d'actualité que les derniers...
Certes mais c'est les derniers publiés qui ont besoins d'avoir de la visibilité donc l'ordre chronologique donne ce plus.
Qui plus est si tu assure la promo des nouveauté via les réseaux, l'ordre te permettra une gestion plus facile plus une logique de suivi compréhensible pour ton lectorat qui lui a ses habitudes avec d'autres sites.
Ensuite pour finir quid de l'entreprise qui ne verra pas sa fiche en pôle position comme elle peut s'attendre a la voir suite a sa publication ?
Comme je le disais, des ajouts de nouvelles fiches ne sont pas au programme, à moins que des entreprises nous en fassent la demande, ce qui est peu probable en phase de lancement.

Concernant les fiches en pôle position, il y a effectivement deux encarts leur étant destiné sur l'index, mais ma question s'applique surtout à ce qui démarre ensuite, les résultats "naturels" en quelque sorte si on compare avec une SERP.

Au delà de l'expérience utilisateur, le fait d'avoir une multitude de pages de type listings changées à chaque passage du robot peut-il être vu comme une sorte de sur-optimisation, préjudiciable ?
 
WRInaute passionné
il faut aussi penser aux visiteurs et leur proposer une logique qu'ils puissent comprendre et qui ne les perde pas à chaque visite avec par exemple un classement alphabétique dans une liste intégrale et pourquoi pas une option pour changer de tri à la demande (en évitant d'indexer ces variantes) ainsi qu'une page listant les nouveautés (accueil ou autre).

Avec ca googlebot va s'y retrouver. Dans le cas contraire je ne sais pas mais le risque à long terme est non nul vu le nombre de changements d'algo et la chasse au "non naturel" en ce moment.
 
WRInaute discret
forty a dit:
il faut aussi penser aux visiteurs et leur proposer une logique qu'ils puissent comprendre et qui ne les perde pas à chaque visite avec par exemple un classement alphabétique dans une liste intégrale et pourquoi pas une option pour changer de tri à la demande (en évitant d'indexer ces variantes) ainsi qu'une page listant les nouveautés (accueil ou autre).

Avec ca googlebot va s'y retrouver. Dans le cas contraire je ne sais pas mais le risque à long terme est non nul vu le nombre de changements d'algo et la chasse au "non naturel" en ce moment.
Effectivement tu as raison, un tri alphabétique représenterait un réel intérêt pour le visiteur.
Je vais opter pour cette solution :wink:

Merci à tous !
 
WRInaute accro
triphop59182 a dit:
Au delà de l'expérience utilisateur, le fait d'avoir une multitude de pages de type listings changées à chaque passage du robot peut-il être vu comme une sorte de sur-optimisation, préjudiciable ?
Oui a mon avis au moins au sens évoqué plus haut des entrés qui vont se reproduire.
 
WRInaute passionné
Bonjour,

Faut aussi arrêter de jouer à l’apprentie sorcier avec GG.

Google stocke les pages en archives. Il sait trrès bien les pages modifiée depuis sa dernière visite.
Si tu colle des page aléatoire sur ta home, GG va se dire "Il les ressort, c'est qu'il y a quelque chose de nouveau".
A ton avis, comment va t-il réagir si chaque fois, il tombe sur une pages identique à celle qu'il a crawlé 10 jours avant ?

Et coté visiteur, si un internaute souhaitais du "random", il n'utiliserais pas les moteurs de recherche, mais un générateur aléatoire de résultats.

Rod
 
WRInaute discret
Koxin-L.fr a dit:
Bonjour,

Faut aussi arrêter de jouer à l’apprentie sorcier avec GG.

Google stocke les pages en archives. Il sait trrès bien les pages modifiée depuis sa dernière visite.
Si tu colle des page aléatoire sur ta home, GG va se dire "Il les ressort, c'est qu'il y a quelque chose de nouveau".
A ton avis, comment va t-il réagir si chaque fois, il tombe sur une pages identique à celle qu'il a crawlé 10 jours avant ?

Et coté visiteur, si un internaute souhaitais du "random", il n'utiliserais pas les moteurs de recherche, mais un générateur aléatoire de résultats.

Rod
Je suis sorcier, pas apprenti-sorcier, bientôt maître sorcier grey SEO :D

Plus sérieusement, le risque aux yeux de Google semble confirmé, c'est pourquoi j'opterai pour un tri alphabétique.

Quant à ta dernière remarque, en fait les visiteurs arrivent presque tous directement sur la fiche qui les intéressait (traf de longue traine). Ensuite ils utilisent un moteur de recherche interne s'ils veulent chercher autre chose, mais ma question s'appliquait surtout aux pages de type home, auquel cas ils n'ont de toutes façons aucune chance de voir le pro recherché apparaître par hasard dans ce listing...
 
WRInaute accro
Mouais enfin c'est pas des queuqueu non plus tes visiteurs il vont penser quoi quand il feront un retour arrière et qu'il trouveront plus la même chose :wink:

Je suis sorcier, pas apprenti-sorcier, bientôt maître sorcier grey SEO :D
Je me relance pas dans la même tirade que j'ai fait il y a 5 mn mais en gros des "maître sorcier grey SEO" j'en ai vue passer 10 tonnes ici en quelques années et c'est ce que mange tous les jours les trucs comme les panda et autres manchots ...

Dans le SEO il y a une notion de long terme (c'est tellement chiant comme job qu'il faut penser pour loin) et les trucs révolutionnaires compatibles ou pas avec GG ça fait rarement long feu.
 
WRInaute discret
Ce que j'entendais par Grey SEO, en plaisantant quant à mon statut, c'est que j'ai des sites white à fond, et des autoblogs pourris en masse. Le constat est effectivement que seuls mes sites white perdurent, les autres voient leur traf diminuer de jours en jours, au fur et à mesure que Google ouvre les cages de son bestiaire :lol:

A tel point que je suis obligé de re-rédiger les meilleurs articles de mes autoblogs si je veux voir ces projets survivre. Mais ça fait déjà quelques mois que je me suis converti, même si ça me fait mal, au 100% white au point d'investir dans des rédacteurs.

Ta remarque sur le retour arrière n'est pas bête, bien qu'un retour arrière n'est pas un refresh et, je pense, ne changerait pas l'ordre si ? Enfin peu importe, tu me confortes encore une fois dans l'idée d'afficher mes listes par ordre alphabétique, ma décision est prise !

zeb a dit:
Mouais enfin c'est pas des queuqueu non plus tes visiteurs il vont penser quoi quand il feront un retour arrière et qu'il trouveront plus la même chose :wink:

Je suis sorcier, pas apprenti-sorcier, bientôt maître sorcier grey SEO :D
Je me relance pas dans la même tirade que j'ai fait il y a 5 mn mais en gros des "maître sorcier grey SEO" j'en ai vue passer 10 tonnes ici en quelques années et c'est ce que mange tous les jours les trucs comme les panda et autres manchots ...

Dans le SEO il y a une notion de long terme (c'est tellement chiant comme job qu'il faut penser pour loin) et les trucs révolutionnaires compatibles ou pas avec GG ça fait rarement long feu.
 
WRInaute accro
triphop59182 a dit:
bien qu'un retour arrière n'est pas un refresh et, je pense, ne changerait pas l'ordre si ?
dépend des entêtes serveur il me semble ... (a vérifier même si 'est pas important dans le cas qui nous préocupe)
 
Discussions similaires
Haut