如何复制一个巨大的文件夹,跳过相同的文件

如何复制一个巨大的文件夹,跳过相同的文件

我的主台式机上有 4 个 HDD。布局如下:

  • 适用于 Linux 的 60GB SSD

  • 适用于 Windows 10 的 500GB HDD

  • 2TB HDD 作为主存储设备

  • 1TB HDD 作为备份存储设备

大约每个月,我都会擦除 1TB 硬盘,并将 2TB 上的所有文件从头开始复制到该硬盘上。我的问题是,有没有办法简单地“更新” 1TB HDD 上的文件,因为其中 99% 可能都是相同的?

PS 我总共有大约 900GB 的文件。复制这些文件需要几个小时,而且可能会严重影响 1TB 硬盘的使用寿命……

答案1

听起来就像rsync是为您的用例量身定制的。

我发现有用的一些选项是

  • --progress这至少让你感觉到有些事情正在发生
  • --dry-run它进行比较但实际上不复制任何内容。我喜欢在设置命令后执行此操作,以确保没有弄乱任何东西。

答案2

rsync --ignore-existing --recursive /src /dst

或者手动将给定目录复制到另一个目录,如果条件添加 * 等,但 rsync 应该可以完成。

相关内容