我当前正在rdfind
一个包含超过 4TB 文件的目录上运行。由于校验和部分需要大量时间,我正在寻找替代方案。我相当确定不存在任何基于 的大小冲突find /mnt/local/ -type f -printf "%s\t%p\n" | sort --numeric
。是否有一个工具或脚本可以根据大小或前几千个字节的哈希值来硬链接任何重复文件?
答案1
jdupes
可以使用选项配置为仅对每个文件中的第一个数据块进行校验和-T
;因此在你的情况下,
jdupes -T -T -r -L /mnt/local
/mnt/local
将仅根据它们的大小和第一个块的哈希值来硬链接在 下找到的所有重复项。