在 NTFS 上使用 rsync 进行增量快照样式备份

在 NTFS 上使用 rsync 进行增量快照样式备份

我接手了一款嵌入式 Linux 产品的开发,该产品需要可靠的备份解决方案。备份将以非压缩方式执行,备份到已格式化为 NTFS 的附加 USB 存储设备。

当前的实现很简单rsync --archive --verbose --delete,但是考虑到--delete参数,任何意外删除的文件也将从备份中删除,这是不好的。

--delete另一方面,如果 不使用,如果文件被重命名,我们最终可能会得到重复的结果。

我想将其转换为使用硬链接来创建快照式备份,就像迈克·鲁贝尔, 或者http://webgnuru.com/linux/rsync_incremental.php,基本上可以归结为:

rsync -avh --delete --link-dest=<previous-backup> <source> <backup-location>

我还没有看到任何关于此文件系统的明确提及。我知道我可以在 NTFS 上执行此操作,但有什么问题吗?以这种方式创建的备份在 OSX 和 Windows 上是否可以按预期读取?

答案1

我还没有看到任何关于此文件系统的明确提及。我知道我可以在 NTFS 上执行此操作,但有什么问题吗?以这种方式创建的备份在 OSX 和 Windows 上是否可以按预期读取?

虽然这已经是老问题了,但我还是想提一下过去几年我遇到的另一个问题,除了丢失权限之外。虽然 NTFS 能够为文件存储多个硬链接,它们的数量限制为 1023我以前也讨论过,有人报告说,至少在较旧的 Windows/NTFS 中删除带有大量链接的文件时,性能非常糟糕。这是一场德语论坛关于一个名为 的工具,其工作原理与硬链接HardlinkBackup基本相同。对于某些用户来说,从某些备份历史记录中删除 25,000 个包含 10 个链接的文件需要数小时甚至数天的时间。同样的用户在使用某些较旧的 Linux 和文件系统进行类似设置时没有报告任何问题。我自己在测试期间没有发现这样的问题,但在使用 50 个链接的测试中,速度也开始变慢。rsyncext*

因此,虽然我猜测自 Windows 7 以来情况已经有了很大的改善,特别是因为 Windows 现在更加依赖硬链接进行更新等,但实际上用一些更大的备份历史记录来测试它可能是好主意。

答案2

Rsync 创建镜像,而镜像不是备份;除非您至少拥有 2 个、最好是 3 个以上的 USB 存储设备并轮换它们(在这种情况下--delete您提到的问题并不重要)。

您应该考虑使用更合适的工具,例如 duplicity、dejadup(本质上是 duplicity 的前端)、rdiff-backup 或其他一些可以保存文件历史记录的工具。

NTFS 将大概所有这些都没问题,只要文件属性(如用户、组等)的精确重复不是特别重要。我相信 duplicity 尤其不会在意,因为它会将所有数据保存在档案中(我将其与 Amazon S3 云存储一起使用)。

相关内容