[Linux-bruxelles] download des fichiers html d'un url en une commande

Jerome Warnier jwarnier at bxlug.be
Dim 25 Aou 00:55:09 CEST 2002


Yannick Warnier wrote:

>On Sun, 25 Aug 2002 00:29:27 +0200
>Yannick Warnier <yannick at bxlug.be> wrote:
>
>  
>
>>Je sais qu'il est un peu tard mais au cas où certains seraient encore là
>>et pourraient me filer une info utile... je cherche un petit programme
>>ou script ou n'importe quoi de pas trop lourd pour télécharger tous les
>>fichiers html d'un site web en faisant un truc style "wget
>>http://www.monsite.be -niveau_de_liens".
>>    
>>
>
>Ca y est, j'ai trouvé. C'était au bout du man de wget mais en gros ca
>ressemblait à ce que j'imaginais:
>"wget -nH -r -l 3 http://www.monsite.be"
>
>-nH sert à supprimer le nom du domaine de devant les fichiers (sinon il
>les enregistre dans un répertoire qui a pour nom l'url donné en
>paramètre
>
>-r sert à déclarer qu'on veut le mode récursif (qu'il downloade
>tous les fichiers et pas seulement "index.html" par exemple
>
>-l 3 sert à aller jusqu'au 3eme niveau de liens (au cas où le site serait
>parsemé de liens partout vers d'autres sites)
>
>Yannick
>
>  
>
Tu pourrais aussi essayer Pavuk, qui est très bien paraît-il, et 
graphique de surcroît.







Plus d'informations sur la liste de diffusion Linux-bruxelles