通过备份到 Amazon S3 来减少 rsync/rclone 负载的巧妙方法?

通过备份到 Amazon S3 来减少 rsync/rclone 负载的巧妙方法?

我开始运行 rclone,以将一组文件保存在我的笔记本电脑上,这些文件已同步到云并加密。由于信任问题,我想“控制”加密。Rclone 在这方面做得很好,而且我用它来处理很多东西,但这意味着里面的文件数量越来越大,这让我花费了不少钱。

我考虑过其他方法,比如只同步 zip 或 rdiff 文件中的差异。显然这种方法可行,但存在一些缺点或障碍需要解决。

首先,S3 存储并不是真正的 rsync 服务器,因为它不仅仅复制文件更改的部分。如果我想切换到将 blob 发送到云端的系统,它需要智能来了解云端已经存在的内容。

我正在寻找的功能是:

  • 备份的最小连接负载,
  • 当我愚蠢地删除文件时能够快速恢复。
  • 服务器上存储的文件数量较少
  • 完整或接近完整的文件历史记录
  • 我可以编写一个脚本,这样就不用花脑力去弄清楚同步时需要包含的所有选项。
  • 理想情况下,虽然我不会同时使用多台设备,但某种东西可以与多台设备兼容。
  • 我应该控制加密(本地完成)和密钥

我在这里发布这个问题是因为我认为这个问题会为许多有服务器类型使用要求的人提供有价值的答案。

提前致谢

[编辑:补充说我希望完全控制加密密钥,并且加密应该在传输之前在本地完成]

答案1

我建议寻找支持 S3 的备份软件,几乎所有软件都支持。

以下两个我过去使用过或现在正在使用 - 与 Google 的 GCS 一起使用,但它们也支持 S3:

  • 表里不一允许增量备份,但偶尔需要完整备份
  • 重复是一款不错的产品,允许跨机器进行重复数据删除。不过对我来说,它似乎不太稳定,例如,有时我的快照会丢失一些文件。

相关内容