如何完整保存网页

如何完整保存网页

我想保存网页以供离线阅读。目前我使用 保存firefox。对于批量保存,我想使用脚本自动执行该过程(或者使用 这样的网站复制器webhttrack?)。从终端我可以保存 URL 的 .html 文件(使用wget URL),但无法查看页面,因为没有图像、.js 等。

有时我想保存编号页面,即。https://askubuntu.com/posts/1https://askubuntu.com/posts/2https://askubuntu.com/posts/3https://askubuntu.com/posts/4.. (像镜像一样)一次性完成。

如何批量保存包含所有必要文件的网页以便正确查看?

答案1

有一款很棒的小型 Firefox 插件,ScrapBook可以满足您的需求。只需单击Add to FirefoxMozilla 上插件网站上的按钮即可安装。

这是关联

答案2

您应该使用 wget,但请阅读手册以了解您所需的实际选项。

特别注意以下选项

'-p'
'--page-requisites'
此选项使 Wget 下载正确显示给定 html 页面所需的所有文件。其中包括内联图像、声音和引用的样式表。

甚至

'-m'
'--mirror'
打开适合镜像的选项。此选项打开递归和时间戳,设置无限递归深度并保留 ftp 目录列表。它目前等同于 '-r -N -l inf --no-remove-listing'。

好吧,如果你愿意的话,去看看吧,

'-k'
'--convert-links'
下载完成后,转换文档中的链接,使其适合本地查看。这不仅影响可见的超链接,还影响文档中链接到外部内容的任何部分,例如嵌入的图像、样式表链接、非 html 内容的超链接等。

结果是这样的:

wget --mirror -p --convert-links -P ./LOCAL_PATH WWW.WEBSITE.TLD/PATH

相关内容