这可能已经被问过了但是...
我正在尝试分析文件碎片对我们某个业务应用程序的影响。有什么最简单、最干净的方法可以将 20GB 的文件碎片化为大约 35,000 个碎片?
理想情况下,整个磁盘的分布应该是随机的,并且/或者尽可能直接可重现,但这些是次要问题。碎片数量也不必是精确的,但应在 2-3k 碎片范围内。
当然,我不会使用实时数据,但我想避免任何可能导致更广泛的文件系统问题的事情(这将发生在非工作时间的生产服务器上)。
如果没有优雅的方法来做到这一点,我很乐意探索替代方案 - 例如使用 perl 或 c# 控制台程序在多个同时进行的进程中创建数千个文件。
平台是 Windows Server 2003。不确定物理磁盘的配置,但磁盘空间分为
- 12GB 操作系统分区
- 35GB 页面文件分区
- 500GB“数据”分区。(这有我感兴趣的文件)
答案1
答案2
我建议看看 Mark Russinovsich 的工具http://technet.microsoft.com/en-us/sysinternals/bb897428.aspx 这将使用选项 -a 显示文件的片段。
爱与和平冰