我有一个分区正在考虑使用重复数据删除。
对于其数据的配置文件,我认为这将是一个不错的选择。不过,在做之前,我想以比“感觉”更系统的方式评估影响。
是否有工具可以评估重复数据删除对分区的影响? (文件级别或块级别)。
目前我有 ubuntu 和 ext4,但如果重复数据删除在这种情况下被证明是有价值的,我正在考虑使用 opendedup 或 lessfs。任何其他建议,即使这可能意味着使用不同的发行版/免费 *nix。
答案1
您没有指定哪个文件系统。如果您谈论的是 ZFS,则可以使用 zdb 命令来查看打开 dedup 会产生什么效果:
# zdb -S tank
Simulated DDT histogram:
bucket allocated referenced
______ ______________________________ ______________________________
refcnt blocks LSIZE PSIZE DSIZE blocks LSIZE PSIZE DSIZE
------ ------ ----- ----- ----- ------ ----- ----- -----
1 775 96.8M 96.8M 96.8M 775 96.8M 96.8M 96.8M
2 2 256K 256K 256K 6 768K 768K 768K
4 3 384K 384K 384K 13 1.62M 1.62M 1.62M
128 1 128K 128K 128K 158 19.8M 19.8M 19.8M
Total 781 97.5M 97.5M 97.5M 952 119M 119M 119M
dedup = 1.22, compress = 1.00, copies = 1.00, dedup * compress / copies = 1.22