Vous utilisez un navigateur non à jour ou ancien. Il ne peut pas afficher ce site ou d'autres sites correctement. Vous devez le mettre à jour ou utiliser un navigateur alternatif.
Il n'y a pas de problèmes... tu peux soumettre un site de plusieurs milliers de pages si celles-ci ne ressemblent pas à du spam.
Si toutes les pages apportent un contenu différent... le site est considéré comme un gros site bien ficelé et Google dit lui-même qu'il vaut mieux soumettre des sites "terminés" que des sites en construction.
Le plus délicat c'est l'indexation du site. Avec un gros site on aurait tendance à forcer l'indexation avec de nombreux backlinks alors que l'indexation naturelle recommenderait que quelques liens par jour.
Je pense d'ailleurs qu'uun bon gros site avec quelques liens aura de meilleure chance de bien s'indexer grâce à ses liens internes qu'un petit site avec de nombreux backlinks.
Google n'est pas dupe. Pourquoi un site de 100 000 pages arriverait comme cela d'un coup sur le net ?
Google va certainement indexé quelques pages et testé celle ci dans son index. Si le site subit un effet buzz, avec des BL naturelles de qualité en plus chaque jour, il indexera sans doute très vite le site. Sinon ce sera une attente de quelques années.
J'en avais fait l'expérience il y a deux ans avec un site de 65000 pages, au plus haut je suis monté à 30 000 mais pendant 6 à 8 mois, ca n'a pas dépassé les 3000. Et aujourd'hui 15 000. Avec quelques BL au début.
Il n'y a aucun prob!
C'est le principe même d'un site dynamique !!
Mais c'est vrai, le contenu de ces pages internes doivent être d'un intérêt pour les internautes (et moteurs) sinon on tombe dans le "duplicate content".
y avait l'histoire du gars qui avait réussit à faire indexer quelques milliards de pages en quelques jours... surement que l'algo a changé depuis cet épisode :mrgreen:
en théorie, aucun problème, en pratique je ne comprends pas comment une telle quantité de pages peut arriver d'un seul coup comme ça par miracle. Attention, GG est loin d'être bête et il va comparer ces pages à ce qu'il a déjà en mémoire, gare si il trouve des duplicate contents.
En documentation scientifique ou administrative, tu peux décider de porter tout un site intranet à la vue du grand public, juste d'un claquement de doigts : des dizaines de milliers de pages en un instant.
Je n'avais jamais eu de site blacklisté, je reste dans les règles. Seulement voilà j'ai repris un annuaire, j'ai pris un nouveau nom de domaine, j'ai refait les catégories pas de duplicate content normalement, car url différente, titres différents, page différentes et Meta différents. 2 jours après soumission l'index se trouve dans google, 3ème jour dans les stats une personne vient visiter le site et boum blacklist disparu.
Je pense que google a du penser qu'un annuaire qui démarre avec plus de 3000 liens était suspect!