Lister tout ses URLs indexé par Google

Nouveau WRInaute
Bonjour,
Après quelque recherche sur le net infructueuse, et avant de me lancé dans le développement d'un script adéquat, je recherche un outil pour lister toutes les URLs de mon site indexées par Google.
J'aimerai pouvoir obtenir un fichier contenant la liste de toute ses URLs que je pourai simplement filtrer à l'aide d'un grep.
Si quelqu'un a une solution, c'est un grand merci par avance ...
Bonne journée a tous !
 
Nouveau WRInaute
y a t'il une solution pour ne pas se limiter a 10 résults ...
ou une solution pour utiliser les 1000 requêtes quotidiennes pour mettre "bout à bout" les résultats ?
En fait j'ai + de 70000 pages avec une PHPSESSID dans l'URL que je souhaiterai supprimer mais visiblement le Disalow: /*? je fonctionne pas.
J'aimerai alors fournir en dur la liste de ses pages dans robots.txt pour les supprimer ...
Si quelqu'un a une solution je suis toujours preneur ...
merci
 
WRInaute passionné
helas pour les 100 resultats non.

Par contre tu pourrais éventuellement analyser tes fichiers logs pour récupérer le nom des pages crawlées par Google, et ainsi l'insérer dans ton fichier robot.

Ca ne sera certainement de tout repos...

;)
 
Nouveau WRInaute
Merci ... :D
C'est bon ... mon script php utilisant l'API est bientot pret ...
Avec 10000 résultat par jour -> en une semaine cela devrait etre bon ...
Si cela intéresse du monde je peut vous le poster !
Encore merci !
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut