2 个现有重复共享上的 DFS 复制

2 个现有重复共享上的 DFS 复制

我在不同的站点有两组数据,它们互为镜像。第二组是第一组的克隆。但是,第一组将是实时数据,因此将来会发生变化。我们需要在两者之间设置 DFS,第二组仅充当接收。这没问题,我们可以这样做。我的问题是,当我启动 DFS 时,它会尝试重新复制所有内容吗?还是它会意识到大多数内容已经存在并且是相同的,因此无需复制/更改它?谢谢

答案1

如果您的数据确实完全相同,则不会。如果存在细微差异,则会发生。DFS 会计算文件的哈希值以确定是否需要进行复制。

您可以使用该dfsrdiag工具检查两侧的几个文件,以确定它们是否计算出相同的哈希值。如果结果显示它们具有相同的哈希值,则 DFS 将不会尝试重新复制数据。请记住,由于它使用哈希值,因此安全权限和上次访问时间等信息都将包含在该计算中。

例如

dfsrdiag filehash /path:"\\server1\file.txt"

File Hash: CEA2C36A-266B5774-3557A3F4-E735EFE1

Operation Succeeded


dfsrdiag filehash /path:"\\server2\file.txt"

File Hash: CEA2C36A-266B5774-3557A3F4-E735EFE1

Operation Succeeded

在这个例子中,两个文件具有相同的哈希值,因此它们是真正相同的。

相关内容