[Linux-bruxelles] download des fichiers html d'un url en une commande

Yannick Warnier yannick at bxlug.be
Dim 25 Aou 00:43:26 CEST 2002


On Sun, 25 Aug 2002 00:29:27 +0200
Yannick Warnier <yannick at bxlug.be> wrote:

> Je sais qu'il est un peu tard mais au cas où certains seraient encore là
> et pourraient me filer une info utile... je cherche un petit programme
> ou script ou n'importe quoi de pas trop lourd pour télécharger tous les
> fichiers html d'un site web en faisant un truc style "wget
> http://www.monsite.be -niveau_de_liens".

Ca y est, j'ai trouvé. C'était au bout du man de wget mais en gros ca
ressemblait à ce que j'imaginais:
"wget -nH -r -l 3 http://www.monsite.be"

-nH sert à supprimer le nom du domaine de devant les fichiers (sinon il
les enregistre dans un répertoire qui a pour nom l'url donné en
paramètre

-r sert à déclarer qu'on veut le mode récursif (qu'il downloade
tous les fichiers et pas seulement "index.html" par exemple

-l 3 sert à aller jusqu'au 3eme niveau de liens (au cas où le site serait
parsemé de liens partout vers d'autres sites)

Yannick





Plus d'informations sur la liste de diffusion Linux-bruxelles