备份问题:爱上博客文章

备份问题:爱上博客文章

我最近才开始喜欢上好的博客文章。尽管如此,我已经收集了很多好文章的网址。

我开始担心十年后,其中许多将不再被托管。幸运的是,与其他类型的现代花哨网页不同,我在博客文章中最看重的是文本、链接和图像,这些应该更容易备份。

我希望有一种方法可以备份指定的 html 以及该页面链接的所有资源(深度为 1),这样我就可以随时在本地计算机上无忧无虑地阅读网页,直到我死去。此外,我希望备份文件能够连贯地相互整合:假设我想备份site-1:page-1site-1:page-2,程序将足够智能地将它们合并在一起。

我知道并且尝试过curlwget我并不完全了解所有可能的选项,也许这就是为什么我总是发现生成的备份文件有点混乱。

问题:

有没有已知的方法可以满足我的愿望?一种简单、自集成、深度为 1 的备份方法,还可以创建索引?

提前谢谢您。如果我需要更具体一点,请告诉我。

答案1

保存网站页面的多种方法:

  • 在浏览器中另存为完整的 HTML 页面
  • 打印到 PDF 打印机并保存文件
  • 还保留这些页面的 URL 回溯机器

如果保存在计算机上,任何文本搜索程序都可以使用。

相关内容