我最近才开始喜欢上好的博客文章。尽管如此,我已经收集了很多好文章的网址。
我开始担心十年后,其中许多将不再被托管。幸运的是,与其他类型的现代花哨网页不同,我在博客文章中最看重的是文本、链接和图像,这些应该更容易备份。
我希望有一种方法可以备份指定的 html 以及该页面链接的所有资源(深度为 1),这样我就可以随时在本地计算机上无忧无虑地阅读网页,直到我死去。此外,我希望备份文件能够连贯地相互整合:假设我想备份site-1:page-1
和site-1:page-2
,程序将足够智能地将它们合并在一起。
我知道并且尝试过curl
。wget
我并不完全了解所有可能的选项,也许这就是为什么我总是发现生成的备份文件有点混乱。
问题:
有没有已知的方法可以满足我的愿望?一种简单、自集成、深度为 1 的备份方法,还可以创建索引?
提前谢谢您。如果我需要更具体一点,请告诉我。