参考自这,我尝试从下载整个教程网站https://www.guru99.com/所以我尝试执行以下命令,但没有成功
wget -r --mirror -p --convert-links -P . https://www.guru99.com
wget -r https://www.guru99.com
wget -r -l 0 https://www.guru99.com
终端控制台返回如下
--2019-04-17 08:33:48-- https://www.guru99.com/
Resolving www.guru99.com (www.guru99.com)... 72.52.251.71
Connecting to www.guru99.com (www.guru99.com)|72.52.251.71|:443... connected.
HTTP request sent, awaiting response... 200 OK
Length: unspecified [text/html]
Saving to: ‘www.guru99.com/index.html’
www.guru99.com/index.html [ <=> ] 13.31K 43.4KB/s in 0.3s
2019-04-17 08:33:50 (43.4 KB/s) - ‘www.guru99.com/index.html’ saved [13633]
FINISHED --2019-04-17 08:33:50--
Total wall clock time: 1.7s
Downloaded: 1 files, 13K in 0.3s (43.4 KB/s)
而且下载的文件只有index.html。有什么问题吗?我该如何离线下载这个网站?谢谢。
答案1
程序“httrack”将完全满足您的需求。有关更多信息,请访问 Ubuntu httrack。
使用:进行安装并通过在终端中sudo apt install httrack
输入来启动它。httrack
对于该特定站点,这将花费很长时间,并且不会显示任何进展迹象。请耐心等待 ;)
答案2
您可以尝试按照以下方式进行操作:
wget \
--recursive \
--no-clobber \
--page-requisites \
--html-extension \
--convert-links \
--restrict-file-names=windows \
--domains guru99.com \
--no-parent \
www.guru99.com/index.html
参考 :https://www.linuxjournal.com/content/downloading-entire-web-site-wget