Indexer des tonnes de pages

WRInaute accro
Mon petit problème c'est que j'ai une plateforme de blog, avec plusieurs centaines d'articles publiés par jour par les bloggeurs.

Actuellement je les met sur mon site comme ça:
h**p://www.jeunz.fr/blog-gratuit/billets.php

se qui permet une indexation en 48h, mais on commence à arriver à saturation...

Regardez tout en bas il y a plus de 500 pages...

Comment feriez vous pour que tout reste disponible pour googlebot, tout en ayant un semblant d'esthétique.
 
WRInaute passionné
Je ne sais pas si google apprécie bien des centaines de liens de ce type sur chaque page...

Peut etre devrais tu faire un systeme de pagination différent, genre mettre juste un <<précédent l suivant>>

Ou faire le meme system de pagination que phpbb quand il y a plusieurs centaines de page sur un seul topic:

sur la page d'accueil, en bas tu met <page1><page2><page3> ... <page50> (50 étant la derniere page)
sur la page 1, en bas tu met <page2><page4><page5> ... <page50>
puis sur la page 30 <page31><page32><page33> ... <page50>
En faisant en sorte de n'avoir qu'une dizaine de liens de pagination par page.

De cette facon tu n'a que quelques liens en bas de ta page, les utilisateur peuvent accéder rapidement a la page souhaité, et google n'est pas confronté a une jungle de liens!
 
WRInaute accro
SiteMap j'aime pas ^^

Donc tu me conseilles en fait de revoir ma pagination, à vrai dire ça parait logique, car dans quelques mois sinon ça va être la folie...

Et tant qu'a faire je vais sans doute réduire le nombre de billets que j'affiche par page.

Cette page n'est à mon avis pas utilisé par les visiteurs, mais uniquement par googlebot...
 
WRInaute passionné
Cela me semble logique, google voit ta premier page, il empreinte déjà tous les liens des billet, puis tous les liens de pagination en bas soit 2525 liens par page actuellement, puis sur chacune des page
billets.php il doit aller voir 2525 liens encore, donc je pense qu'il doit gérer sa d'une facon simple: ne pas tout crawler...

Hors si il voit la premiere page billets.php, puis qu'il a 20 billet a visiter, plus une dizaine de page paginé, la sa lui parait moins le brouillard, et googlebot n'aura pas l'impression de crawler en "boucle" et sur des centaines de liens, puisque tu lui présente des liens de pagination qui mene sur des pages différentes sur chaque page...

En tout cas c'est dommage que tu n'ai pas rewrité ces pages, car tu as quand meme deux paramètres dans l'url, maintenant c'est un peu tard... A moins que tu définisse une regle qui dit que toutes les pages ayant un parametre &start=500800 ne soit pas rewrité et les nouvelles le soient...

En ce qui concerne l'utilisation de ce "module": les visiteurs l'utilise sans doute, pour voir les 30/40 derniers billet publiés sur la plateforme, mais il est sur que c'est plus profitable pour google que pour les visiteurs!

Pour revenir au nombre de liens par page, on lit souvent sur des bouqins sur le ref, qu'il faut se limitter a une 50aine voir 100aine de liens page page, je pense que compte-tenu la nature de ton portable, une dizaine de liens de paginations non répétitifs sur toutes les pages me semble correcte
 
Nouveau WRInaute
Sinon (je sais pas si cela marche ou pas) il ne serait pas possible de gérer cela avec le user_agent du bot ? si c'est lui on affiche tout comme cela il index sinon c'est un visiteur normal donc on met que le nombre de news que l'on veux etc ....
 
WRInaute accro
regardes en détails comment font presence-pc, infos-du-net ou clubic..... des plans avec des centaines de pages de listes d'url... c'est encore ce qui marche le mieux, mieux que sitemaps en tout cas :wink:
 
Discussions similaires
Haut