我有一个网络目录,其中有许多文件夹和许多包含文件的子文件夹。
我需要使用 wget 或 bash 下载所有内容。
答案1
尝试一下: wget -r
看看是否有效。
答案2
$ wget \
--recursive \
--no-clobber \
--page-requisites \
--html-extension \
--convert-links \
--restrict-file-names=windows \
--domains website.org \
--no-parent \
www.website.org/tutorials/html/
此命令下载网站 www.website.org/tutorials/html/。
选项包括:
- --recursive:下载整个网站。
- --domains website.org:不要关注 website.org 之外的链接。
- --no-parent:不要关注目录 tutorials/html/ 之外的链接。
- --page-requisites:获取组成页面的所有元素(图像、CSS 等)。
- --html-extension:以.html 扩展名保存文件。
- --convert-links:转换链接,以便它们在本地离线工作。
- --restrict-file-names=windows:修改文件名,以便它们也能在 Windows 中使用。
- --no-clobber:不覆盖任何现有文件(用于下载中断和恢复的情况)。
答案3
最好的方法是:
wget -m <url>
这是 wget“mirror”的缩写:
-m, --mirror shortcut for -N -r -l inf --no-remove-listing.
答案4
wget -r -l 5 -O whatever http://example.com/