Bonjour,
J'ai recemment revu mes sitemaps ... j'ai un site qui comporte +2 000 000 de pages + toutes les pages par departement et par villes et ce pour une 50 ene de categories ...
j'ai donc créé un index sitemap xml pointant sur des sitemaps txt contenant bien sur les url de chaques pages par categories. J'ai soumi a GG Sitemaps qui a bien accepté tous les fichiers et me specifie qu'il y a ~ 14 500 000 pages.
Est ce que je ne risque pas d'avoir des retombées négatives (une sandbox ou autre chose) suite à une augmentation importante du nombre de pages ?
Actuellement j'ai ~ 400 000 pages indexées
J'attends vos avis
J'ai recemment revu mes sitemaps ... j'ai un site qui comporte +2 000 000 de pages + toutes les pages par departement et par villes et ce pour une 50 ene de categories ...
j'ai donc créé un index sitemap xml pointant sur des sitemaps txt contenant bien sur les url de chaques pages par categories. J'ai soumi a GG Sitemaps qui a bien accepté tous les fichiers et me specifie qu'il y a ~ 14 500 000 pages.
Est ce que je ne risque pas d'avoir des retombées négatives (une sandbox ou autre chose) suite à une augmentation importante du nombre de pages ?
Actuellement j'ai ~ 400 000 pages indexées
J'attends vos avis