Scraper en masse les SERP

Nouveau WRInaute
Salut,

Dans le cadre d'un projet pour les cours, j'aimerais lister toutes les pages d'un site (type Wikipedia). Plutôt que de programmer un bot qui suit les lien, ça me semble plus simple de récupérer ce que Google a déjà trouvé.
Je voudrais donc récupérer tous les liens qui sortent pour la requête "site:monsite.com/categorie_visee/" (environ 20 000 liens).
J'ai cherché pour Google mais les seuls outils que j'ai trouvé étaient limités à 100 liens. Si j'ai 1000 liens ce sera déjà suffisant pour mon étude, mais 100 c'est trop peu.
Connaissez vous des programmes qui font ça ? (si c'est Yahoo par ex ça me va très bien aussi)

Merci pour votre aide.
 
Nouveau WRInaute
Merci pour ce lien et pour la réactivité !
Cependant je n'ai jamais fait de JS donc j'ai peur de galérer un peu (seulement php, c++).

Je me penche sur ça dans tous les cas, mais si quelqu'un a un autre lien je reste preneur !
 
WRInaute discret
Tu fais du PHP/C++ et tu demandes comment développer un scraper ? wtf ? En plus, si tu veux scraper 20k liens, t'as intérêt à avoir des proxys privés rotatifs de bonne qualité.
 
Nouveau WRInaute
Salut rand0m,
Je ne comprends pas trop ta réaction ? J'ai bien essayé de développer mon propre script mais je me fais tout de suite bloquer. Ça me semble donc raisonnable de chercher quelque chose de déjà fait par quelqu'un de plus compétent de moi.
 
Discussions similaires
Haut