我们用赫茨纳专用虚拟化服务器 (xen)。每个实例都有 100GB 的免费 sftp 备份存储,购买更多存储不是一个选择 - 太贵了。目前我们使用 bacula 并使用 fuse 安装此存储,因此 SD 可以使用它。这种解决方案不是很可靠,但有效。我们的问题是我们现在拥有更多的数据,100GB 仅够进行一次完整备份(而且不会永远这样,我们正在快速成长)。在家里,我有一个相当不错的互联网连接和大量存储空间。这是 SOHO 解决方案,因此 IP 是动态的,有时它不起作用(没有 UPS 或 BGP)。
问题:如何使用 bacula 并将数据推送到具有快速但不可靠的互联网连接的远程主机上的存储?
我的第一个想法:在专用服务器上本地运行第一个 SD,然后将卷迁移到第二个 SD,但是:
迁移仅针对单个存储守护进程实施。您无法在一个存储守护进程上读取数据,而在另一个存储守护进程上写入数据。
第二种解决方案:备份完成后,手动(rsync)将文件/卷移至主服务器。这没什么用 - 目录会过时,恢复会很麻烦。
第三次尝试:使用 fuse 和 fsync 挂载家庭服务器,并编写一堆脚本,以便在连接断开时重试并重新挂载它。
亲爱的 SF:我还应该考虑哪些其他解决方案?