备份:真正巨大的目录的增量备份?

备份:真正巨大的目录的增量备份?

我有 2 台运行 Linux 的服务器,其中一台托管图片共享服务(目前有 193G 图片),我想进行增量备份。每次都复制整个网站不是一个选择,所以我想要类似 rsync 的东西,但它应该能够使用以前版本的备份并硬链接到最新文件。有没有现成的解决方案?

答案1

rsnapshot 完全符合要求。
快照

答案2

我建议你rdiff-backup使用 ,即使用rsync库。它会创建增量备份。最好的是,最新的备份始终按原样存储,因此您只需使用cpscp等即可恢复数据。如果您需要较旧的数据,有一个参数可让您恢复数据。

我们每晚使用它来备份大约 450GiB 的数据。

例如:显示备份:

root@xenbackup:~# rdiff-backup -l /backup/new/web1_example_org/
Found 26 increments:
    increments.2012-02-24T14:38:25+01:00.dir   Fri Feb 24 14:38:25 2012
    ...
    increments.2012-03-14T07:00:55+01:00.dir   Wed Mar 14 07:00:55 2012
    increments.2012-03-15T06:53:51+01:00.dir   Thu Mar 15 06:53:51 2012
    increments.2012-03-16T06:54:03+01:00.dir   Fri Mar 16 06:54:03 2012
    increments.2012-03-17T07:35:28+01:00.dir   Sat Mar 17 07:35:28 2012
    increments.2012-03-18T06:23:44+01:00.dir   Sun Mar 18 06:23:44 2012
    increments.2012-03-19T06:16:30+01:00.dir   Mon Mar 19 06:16:30 2012
    increments.2012-03-20T06:17:56+01:00.dir   Tue Mar 20 06:17:56 2012
Current mirror: Wed Mar 21 06:20:32 2012

示例:将 web1.example.org 上的文件夹 /var/www 备份到本地 /var/backups:

root@xenbackup:~# rdiff-backup [email protected]::/var/www /var/backups

有一些很酷的文档这里

rdiff-backup创建一个名为的子目录,rdiff-backup-data用于存储增量数据和日志。您甚至可以告诉它删除超过 2 周左右的数据。查看文档,这个东西太棒了!:-)

答案3

为了完整起见,迪尔维什是一个可以执行此任务的出色工具。

相关内容