最近,我接到了一项任务,要整合我们网络上的数据。我们有几 TB 的数据,这些数据存储在多个服务器上,我估计其中大约有 30-40% 的数据是无用的。我认为“无用”数据是指 7 年多来从未被触及的数据,因为有人将其移至新位置,从未清理旧位置,或者这些数据无关紧要且陈旧。
我的问题是......
是否有一种工具可以让我扫描大量数据以帮助我识别网络上可能存在的孤立目录?
答案1
这里有个建议,搜索 DoubleKiller - 我发现它对于在 TB 级的数据中识别重复文件非常有用,它有很多搜索选项和扫描目录的限制。它是武器库中一个有用的工具,但与任何读取文件的东西一样,如果将来可能需要的话,它会破坏访问时间。