Nombre "maximum" de pages dynamiques générées conseillées

milman

Nouveau WRInaute
Bonsoir,

Je viens de lire l'article de WRI concernant l'URL rewriting.

Mais je me pose une petite question :
Est-il recommandé de ne pas généré plus d'un certain nombre de pages dynamiquement ?

Par exemple est ce que cela poserait un problème si un site dynamique créait 1 milliard de pages dépendants de quelques mots clefs générés automatiquement ?

Est ce que google pourrait prendre cela pour une sorte de spam ?
Est ce que cela ne serait pas conseillé sur un petit hébergement car cela consommerait trop en BP (si les bots doivent crawler 1milliard de page a chaque fois...)
Voyez vous d'autres soucis ? Ou cela au contraire est il totalement négligeable ?

Merci d'avance pour vos réponses !
 

Zecat

WRInaute accro
A mon avsi tu peux créer autant de pages que tu veux si ton site le justifie. En ce qui concerne les bots, aucun risque qu'ils crawlent ton milliard de page parce que pour obtenir cela il faudrait que tu sortes la tres tres grosse artillerie coté BL ... et donc d efaçon mécanique, le crawl sera de fait limité à quelques dizaine ou centaines de milliers de pages ... donc aucun risque pour ta bande passante (si tu arrives a avoir 10.000 pages crawlées par jour tous bots confondus, c'est déjà pas mal ...
 

Marie-Aude

WRInaute accro
Tu mélanges effectivement une technique de spam (et bon courage pour donner du contenu à ces pages) et une simple technique web, qui est de générer dynamiquement par rapport à une base de données un contenu finalement proposé en html.

Ta question n'a rien à voir avec le php. Si tu générais ces pages en amont pour créer des fichiers html classiques, le probleme serait le même

Enfin la difficulté ne serait pas la bande passante, mais les accès simultanés à la base
 

finstreet

WRInaute accro
Une page web gérée dynamiquement, ca ne veut pas dire un repère à spam :) Toi tu parles de pages web créées à la volée :)
 

milman

Nouveau WRInaute
Merci beaucoup pour vos (si rapides) réponses !

Donc pour résumé si j'ai bien compris : je peux mais elles ne seront pas crawler avant plusieurs dizaines années...

D'ou un intérêt assez limité :roll:

C'est bien cela ?
 

Zecat

WRInaute accro
Oui c'est bien cela sauf si tu disposes d'un vivier d'une centaine de pages PR8 ou PR9 :mrgreen: et que tu arrives à les caser (BL) sans faire un monstrueux paté de sable (sandbox) :mrgreen:

En plus, ne perd pas de vue que page crawlées et page intégrées dans l'index sont deux choses très très différentes ...
 

HawkEye

WRInaute accro
milman a dit:
Par exemple est ce que cela poserait un problème si un site dynamique créait 1 milliard de pages dépendants de quelques mots clefs générés automatiquement ?

Est ce que google pourrait prendre cela pour une sorte de spam ?

[mode "not so white hat"]
Tout dépend de la "qualité" du contenu qui habille ces mots-clés...
[/mode]
 

Discussions similaires

Haut