有没有办法将非常大的复制组分成几个较小的复制组,同时避免在重新同步或验证每个较小复制组中的文件时出现大量积压?
我有一个非常大的复制组,涵盖 450,000 个文件,大小为 1.5 TB,并且它有大量活动来自三个不同城市的三个独立办公室,其中两个城市相距 1000 多英里。我已经构建了一个新的 DFS 命名空间来处理新的较小复制组的寻址,并且运行良好。但这里的问题是如何将实际的复制组本身拆分成更小的块。
这是必要的,因为一些办公室不需要现有复制组的大量数据,有时我们希望该目录结构的一部分在本地表示以显示仅本地的内容而不复制该部分(类似于临时目录)。