如何递归下载整个网络目录?

如何递归下载整个网络目录?

我有一个网络目录,其中有许多文件夹和许多包含文件的子文件夹。

我需要使用 wget 或 bash 下载所有内容。

答案1

尝试一下: wget -r看看是否有效。

答案2

$ wget \
 --recursive \
 --no-clobber \
 --page-requisites \
 --html-extension \
 --convert-links \
 --restrict-file-names=windows \
 --domains website.org \
 --no-parent \
     www.website.org/tutorials/html/

此命令下载网站 www.website.org/tutorials/html/。

选项包括:

  • --recursive:下载整个网站。
  • --domains website.org:不要关注 website.org 之外的链接。
  • --no-parent:不要关注目录 tutorials/html/ 之外的链接。
  • --page-requisites:获取组成页面的所有元素(图像、CSS 等)。
  • --html-extension:以.html 扩展名保存文件。
  • --convert-links:转换链接,以便它们在本地离线工作。
  • --restrict-file-names=windows:修改文件名,以便它们也能在 Windows 中使用。
  • --no-clobber:不覆盖任何现有文件(用于下载中断和恢复的情况)。

来源链接

或者尝试来自 ask Ubuntu 的解决方案。

答案3

最好的方法是:

wget -m <url>

这是 wget“mirror”的缩写:

  -m,  --mirror             shortcut for -N -r -l inf --no-remove-listing.

答案4

Wget 递归检索

wget -r -l 5 -O whatever http://example.com/

相关内容