如何评估是否值得使用重复数据删除?

如何评估是否值得使用重复数据删除?

我有一个分区正在考虑使用重复数据删除。

对于其数据的配置文件,我认为这将是一个不错的选择。不过,在做之前,我想以比“感觉”更系统的方式评估影响。

是否有工具可以评估重复数据删除对分区的影响? (文件级别或块级别)。

目前我有 ubuntu 和 ext4,但如果重复数据删除在这种情况下被证明是有价值的,我正在考虑使用 opendedup 或 lessfs。任何其他建议,即使这可能意味着使用不同的发行版/免费 *nix。

答案1

您没有指定哪个文件系统。如果您谈论的是 ZFS,则可以使用 zdb 命令来查看打开 dedup 会产生什么效果:

# zdb -S tank
Simulated DDT histogram:

bucket              allocated                       referenced          
______   ______________________________   ______________________________
refcnt   blocks   LSIZE   PSIZE   DSIZE   blocks   LSIZE   PSIZE   DSIZE
------   ------   -----   -----   -----   ------   -----   -----   -----
     1      775   96.8M   96.8M   96.8M      775   96.8M   96.8M   96.8M
     2        2    256K    256K    256K        6    768K    768K    768K
     4        3    384K    384K    384K       13   1.62M   1.62M   1.62M
   128        1    128K    128K    128K      158   19.8M   19.8M   19.8M
 Total      781   97.5M   97.5M   97.5M      952    119M    119M    119M

dedup = 1.22, compress = 1.00, copies = 1.00, dedup * compress / copies = 1.22

相关内容