Lister les URL indexées et les exploiter

Nouveau WRInaute
Bonjour,


On m'a demandé d'aider à l'optimisation des métas d'un site qui ne m'appartient pas. Je n'ai donc pas accès au FTP.

Je pense personnaliser chacun des titres, voire également les descriptions.
Pour ne pas oublier de pages, j'aimerais pouvoir lister chacune d'entre elles.

La commande site:nomdusite de Google répond à ma demande mais je ne peux que consulter les URL ; je n'ai pas envie de faire un copier coller des 800 URL listées :)


Est-ce que l'un d'entre vous connait un outil qui répondrait à cette utilisation ?


Merci de vos réponses
 
WRInaute passionné
Tu veux modifier un site qui ne t'appartient pas et dont tu n'as pas les droits d'accès => pas possible sauf en le hackant mais dans ce cas tu t'es trompé de forum...
Edit : Après relecture, il semble plutôt que tu souhaites effectuer des modifs de ton coté pour ensuite les proposer ?
Dans ce cas, il n'y a pas, à ma connaissance, d'outil permettant de relever automatiquement toutes les descriptions de toutes les pages d'un site. La commande site et le copier coller semble la seule alternative...
 
WRInaute passionné
sinon tu développes un outil qui fait ça pour toi :

tu lis la recherche de google, puis tu suis les urls (grace à un preg_match) et tu lis la description de la page (toujours grace à un preg_match)..

pas très compliqué, une demie-heure de dév selon moi..
 
Nouveau WRInaute
keroin : je n'ai pas trop bien formulé ma recherche, désolé :)

Je cherche effectivement à faire un tableau qui recenserait, pour chaque URL, mes propositions de métas.

RomsIW : Je ferai des recherches pour le développement d'un outil perso, c'est un bon conseil

darkjukka : je vais tester également :)
EDIT : Xenu est excellent, c'est ce que je cherchais. Merci !

Merci à tous d'avoir pris le temps de me répondre !

EDIT : une révélation ce matin : faire un sitemap pour Google est un autre moyen de rescenser les pages d'un site... doh
Je trie et hop dans un tableur !
 
Discussions similaires
Haut