仅根据大小硬链接重复文件

仅根据大小硬链接重复文件

我当前正在rdfind一个包含超过 4TB 文件的目录上运行。由于校验和部分需要大量时间,我正在寻找替代方案。我相当确定不存在任何基于 的大小冲突find /mnt/local/ -type f -printf "%s\t%p\n" | sort --numeric。是否有一个工具或脚本可以根据大小或前几千个字节的哈希值来硬链接任何重复文件?

答案1

jdupes可以使用选项配置为仅对每个文件中的第一个数据块进行校验和-T;因此在你的情况下,

jdupes -T -T -r -L /mnt/local

/mnt/local将仅根据它们的大小和第一个块的哈希值来硬链接在 下找到的所有重复项。

相关内容