在我的 OCZ 240GB PCI-Express SSD 中,我创建了巨大的文件,并在写入两个分别为 45GB 和 45GB 的文件后,软件抛出异常“由于文件系统限制,无法完成请求的操作”,尽管那里有很多空间。
我尝试调查这个问题,有人说这可能是碎片问题。我尝试通过从此分区中删除所有文件来解决这个问题,这样附加大文件就不会造成碎片,但问题仍然存在。
在这个分区中,我有 40 个文件,两个大文件(我尝试创建的文件),其他文件小(元数据),并且有 6 个碎片文件,文件碎片总数为 3768243 - 此信息来自 defrag /v
我有 Windows Server 2008 R2 - 有什么建议吗?
答案1
我认为这可能是相关的:
实际的限制不是在于片段的数量,而是在于存储指向片段的指针的数据段的记录数量。
很有可能文件系统本身无法添加更多碎片,因为碎片太多了。一个简单的测试方法是使用重叠群效用另一篇文章锁定了对文件进行碎片整理,然后重试。如果您无法对文件进行碎片整理,或者在对文件进行碎片整理后可以正确写入文件,那么您就找到了答案。
您应该考虑的另一种方法是滚动文件。文件越大(尤其是您逐步添加的文件),您就越有可能产生碎片,因为 NTFS 很难为您的文件找到连续的空间。(虽然这是我第一次听说这种情况发生在空磁盘上,可能是因为您有多个大文件)。滚动到 ~2G 可能会大大改善这种情况。