我想保存网页以供离线阅读。目前我使用 保存firefox
。对于批量保存,我想使用脚本自动执行该过程(或者使用 这样的网站复制器webhttrack
?)。从终端我可以保存 URL 的 .html 文件(使用wget URL
),但无法查看页面,因为没有图像、.js 等。
有时我想保存编号页面,即。https://askubuntu.com/posts/1,https://askubuntu.com/posts/2,https://askubuntu.com/posts/3,https://askubuntu.com/posts/4.. (像镜像一样)一次性完成。
如何批量保存包含所有必要文件的网页以便正确查看?
答案1
有一款很棒的小型 Firefox 插件,ScrapBook
可以满足您的需求。只需单击Add to Firefox
Mozilla 上插件网站上的按钮即可安装。
这是关联
答案2
您应该使用 wget,但请阅读手册以了解您所需的实际选项。
特别注意以下选项
'-p'
'--page-requisites'
此选项使 Wget 下载正确显示给定 html 页面所需的所有文件。其中包括内联图像、声音和引用的样式表。
甚至
'-m'
'--mirror'
打开适合镜像的选项。此选项打开递归和时间戳,设置无限递归深度并保留 ftp 目录列表。它目前等同于 '-r -N -l inf --no-remove-listing'。
好吧,如果你愿意的话,去看看吧,
'-k'
'--convert-links'
下载完成后,转换文档中的链接,使其适合本地查看。这不仅影响可见的超链接,还影响文档中链接到外部内容的任何部分,例如嵌入的图像、样式表链接、非 html 内容的超链接等。
结果是这样的:
wget --mirror -p --convert-links -P ./LOCAL_PATH WWW.WEBSITE.TLD/PATH