Nouveau WRInaute
Salut,
Dans le cadre d'un projet pour les cours, j'aimerais lister toutes les pages d'un site (type Wikipedia). Plutôt que de programmer un bot qui suit les lien, ça me semble plus simple de récupérer ce que Google a déjà trouvé.
Je voudrais donc récupérer tous les liens qui sortent pour la requête "site:monsite.com/categorie_visee/" (environ 20 000 liens).
J'ai cherché pour Google mais les seuls outils que j'ai trouvé étaient limités à 100 liens. Si j'ai 1000 liens ce sera déjà suffisant pour mon étude, mais 100 c'est trop peu.
Connaissez vous des programmes qui font ça ? (si c'est Yahoo par ex ça me va très bien aussi)
Merci pour votre aide.
Dans le cadre d'un projet pour les cours, j'aimerais lister toutes les pages d'un site (type Wikipedia). Plutôt que de programmer un bot qui suit les lien, ça me semble plus simple de récupérer ce que Google a déjà trouvé.
Je voudrais donc récupérer tous les liens qui sortent pour la requête "site:monsite.com/categorie_visee/" (environ 20 000 liens).
J'ai cherché pour Google mais les seuls outils que j'ai trouvé étaient limités à 100 liens. Si j'ai 1000 liens ce sera déjà suffisant pour mon étude, mais 100 c'est trop peu.
Connaissez vous des programmes qui font ça ? (si c'est Yahoo par ex ça me va très bien aussi)
Merci pour votre aide.