[Stratégie] lancement de sites aux très nombreuses pages

WRInaute occasionnel
Suite à un article sur http://www.zorgloob.com/ vidéo de Matt Cutts

Code:
Comment optimiser le classement lors du lancement d’un nouveau ‘gros’ site (Millions de pages) ?
Mettre en ligne les pages par séries de 1000-2000, s’assurer de la qualité de ces pages, etc.

qualité des pages ça normal :wink: mais quelle est la bonne fréquence de ces séries selon vous ? faut-il attendre la fin de leurs indexations ?

Quelle serait donc la bonne stratégie ?

bonne après midi

++
 
WRInaute passionné
C'est le genre de reponse qui ne tient pas la route. En pratique, il est souvent tres difficile de mettre qu'une partie d'un site (liens, coherence). Faut penser un peu aux visiteurs!

Deux options, soit un fichier robots.txt qui exclut, soit (mieux) un camouflage inverse (on ne montre a Google qu'une sous partie du site).
 
WRInaute occasionnel
non mieux vaut le laisser faire naturellement, google n'indexera de tout facon pas toutes les pages que tu peux esperer et tu sera même déçu je crois donc avant d'essayer de cacher quoi que ce soit regarde ce qu'il va déjà voir !
 
WRInaute accro
i-liquid a dit:
non mieux vaut le laisser faire naturellement, google n'indexera de tout facon pas toutes les pages que tu peux esperer et tu sera même déçu je crois donc avant d'essayer de cacher quoi que ce soit regarde ce qu'il va déjà voir !

plutôt d'accord. PAr contre, les essais de bloquer des pages avec les robots.txt ont déjà montré que le temps d'indexation des pages bloquées lorsque tu supprime le blocage peut-être très long.
 
WRInaute occasionnel
je vais utiliser la préconisation de i-liquid, laisser le faire naturellement ... de toute facon un site c'est pour les visiteurs :wink:
 
WRInaute passionné
C'etait aussi mon conseil.

Mais je donnais aussi deux solutions techniques pour suivre la G-recommandation.
 
Discussions similaires
Haut