Phpbb : Le meilleur moyen pour indexer les gros topics ?

WRInaute accro
Bonsoir,

Selon vous quelle est la solution pour indexer les topics de plus de 100 pages sur phpbb ?

Augmenter la pagination ?
Faire un sitemap spécifique à chaque page de ces topics ?
Faire une page pour chaque topic qui listerait chaque page ?

J'ai une page de 300 ko composée des liens et uniquemment des liens de différents topics qui ont subit sune indexation limité à cause de leur taille ! Qu'en pensez-vous ?

Une autre solution ?

merci
 
WRInaute accro
Pas pour indexer des topics qui dépassent 100 pages ;-)

j'ai fait une page de 300 grâce a un logiciel qui comporte uniquemment les liens vers les milliers de pages des plus gros topics

c'est trop gros ?
je devrait en faire plusieurs avec le même contenu ?

merci
 
WRInaute occasionnel
coté indexation il s'agit de page trop grande ou topic trop grand. un topic n'est il pas subidvisé en plusieurs pages? commbient de posts affichez vous par page? tout le topic n'est pas indexé ou juste les premières pages du topic?
 
WRInaute accro
Il s'agit de ce genre de post : http://www.adojeunz.com/viewtopic.php?t=1197

On affiche 15 messages par page

J'ai fait une page qui contient toutes les urls de plusieurs topics de ce genre de page...

Elle pèse 300 ko et ne contient "que" des liens

Comme la limite de 200 ko ne semble plus être d'actualité pensez vous que je devrait découper cette fameuse page en plusieurs exemplaires ?
 
WRInaute discret
Lol j'ai un topic de plus de 750 pages ( un avec Sarah )


Je me permet de dévier ton topic parce que je te connais Ohax est ce que cela ralentit qq chose d'avoir autant de page sur un seul topic ?
 
WRInaute accro
Un topic qui a autant de pages prendra forcemment des années à être indexé à 100%

Indexer les 3 premières pages c'est pas un problème mais les suivantes...

j'ai fait quelques modifs dans la pagination pour ne pas avoir ce problème avec les topic <25 pages mais après ça devient délicat...

C'est tout de même dommage de n'avoir que 10 pages d'indexées sur un post qui en fait 1000 ;-)
 
WRInaute discret
d'un coté celui c'est pas grave c'est une rubrique privé ne pouvant être indéxée

mais y a celui de pascal dumini qui fait 54 pages ...

Merci pour le renseignements ....
 
WRInaute accro
Beaucoup trop lourd et long à générer

Et puis il faut selectionner chaque topic un par un, etc...

Un programme me fait ça en 3 secondes alors... ;-)
 
WRInaute occasionnel
Ohax a dit:
Beaucoup trop lourd et long à générer

Et puis il faut selectionner chaque topic un par un, etc...

Un programme me fait ça en 3 secondes alors... ;-)
bon, je trouve que votre page de liens pourrait faire l'affaire sauf si google la considère comme un spam. mais je ne vois pas pourquoi ne pas transformer votre script qui génère ces liens en un script qui génère un ou + sitemap. le temps de réponse doit être le même, pourquoi c'est lourd :?:
 
WRInaute accro
c'est utile ce genre de page... tous les gros forums bien référencés font ça : clubic, infosdunet, wri...
 
WRInaute accro
Ok merci bien ;-)

J'espère juste que google ne verra pas ça comme un spam et suivra tous les liens... :D
 
WRInaute occasionnel
Pourquoi ne pas créer un lien en dur sur la page d'accueil du forum avec un lien choisi au hasard parmis ceux de la liste ?
 
WRInaute occasionnel
Qu'est-ce qui serait trop long ?!

Je parle d'un seul lien au hasard, un peu n'importe ou dans la page ....
Et à chaque fois un lien est pris au hasard, donc en une seule journée tous les liens auront été affichés au moins une fois, et à chaque passage de Google le lien change donc petit à petit il prendra tous les liens ...
 
WRInaute impliqué
heu

As tu essayer de te faire des listes d'url avec freespider ? ( http://www.worldwideweb-x.com/openData.html ). Je pense qu'en choisissant habillement tes filtres, tu doit pouvoir te faire un liste d'url pour un post et toutes ces pages sans trop de soucis, à part le temps que cela prendra, mais une fois réalisée, la liste peut être soumise à google (il y a une sortie xml et txt).
Je ne saispas si ça aura un effet boeuf mais c'est moins fastidieux que de faire des listes à la main ...

++

dcz

[edit] Je vois que tu as dejà une liste d'url, je pense qu'il faut la présenter en plusieurs pages (jor une par topic) pour éviter que google prenne cette page pour du spam. Je pense que 100 liens est une limite à ne pas dépasser par page. ++
 
Discussions similaires
Haut