对整个硬盘进行区分,有可用的工具吗?

对整个硬盘进行区分,有可用的工具吗?

现有问题类似这样的问题,没有在适当的上下文中得到回答(a大量的我根本没有办法比较太多的数据量,所以我在这里再试一次。

我在用着超级在外部驱动器上保留 Mac 内置硬盘的克隆副本。由于该程序内置了数据完整性措施,您的目标卷可能需要比源驱动器多得多的空间,但这不是重点。

我想要做的是在卷级别运行“文件夹”比较。最粗略地说,我希望本质上diff -r /Volumes/MacintoshHD /Volumes/BackupDrive有一个像样的导航界面来处理结果。最大的问题是这些是 1TB 的磁盘,包含大约800 GB数据和顺序310万单个文件。我尝试过很多 diff 工具,但似乎没有一个能够处理如此大量的数据。下面是一些可以完全彻底地失败在这:

  • diff(命令行)。由于它将结果流式传输到控制台,因此它比其他方法更“可靠”,但它会产生大量无法使用的文本输出(没有人性化的界面可以“浏览”差异。)

  • FileMerge(来自 Apple 的 Dev Tools)。对于较小的文件集,界面工作得很好,但对于如此巨大的文件集,它会挂起数小时来尝试扫描,并最终在完成之前崩溃。

  • 万花筒。在没有准确进度条的情况下,经过数小时的扫描后,它最终会显示一个 A/B 比较窗口,但如果您尝试导航,它会随机完全丢弃“B”侧,迫使您重新开始。(这是毫无意义的,因为它只会再次丢弃 B 侧。)

  • Araxis 合并。在我尝试过的所有方法中,它是最接近的。它最终确实产生了比较,但生成和导航速度都明显较慢,快到令人无法忍受的程度。当你谈论 18 小时的扫描时间才能开始处理数据集,并且每次尝试更改 diff 中的目录时都要挂起 20-40 秒时,速度和稳定性会产生巨大的差异。

我的问题是:是否有专门用于大规模比较的差异工具?人们“通常”如何比较以三位数 GB 为单位的大型数据集?是否有我搜索未找到的取证工具?特别是,我只关心差异,而不是相同的部分。我预计变化的百分比相对较小,可能为 1-5%,因此“丢弃”相似性的工具对于如此大的数据集将具有巨大的优势。

答案1

重复扫描(适用于 Mac)将查找所有重复文件。它有许多用于比较文件的选项,校验和就是其中之一。

重复扫描结果是包含重复项数量的文件列表以及删除重复项的简便方法。

当然……无论你做什么都需要花费几个小时。

答案2

您的问题以及我对 Beyond Compare 在这方面的工具的好奇心让我想到了这一点

是的,您可以使用 Beyond Compare 快照比较两台不同计算机上的硬盘。

https://forum.scootersoftware.com/forum/beyond-compare-4-discussion/general/14563-comparing-two-computers-hard-drives

这看起来是一个很棒的功能,有点像硬盘的清单文档。

https://www.scootersoftware.com/v4help/index.html?snapshots.html

相关内容