我创建 RAW 图像文件以及从 RAW 主文件派生的少量 JPEG 文件。一旦创建,JPEG 就很少再被编辑,但如果再次编辑,因为它们会被重新压缩,整个文件就会发生变化。在编辑 RAW 图像时,我使用可以进行非破坏性更改的软件。我会创建一个预览文件和一个元文件 (XMP <40KB),并创建一个目录来跟踪更改。
我在单独的系统中管理预览和目录文件备份,因此对于这个问题,我只关心 RAW、XMP 和 JPEG。
我想通过 WAN 连接,基于每天扫描一次更改的文件系统上的新文件和更改文件,将所有 RAW、JPEG 和 XMP 文件备份到异地。
重复数据删除的工作原理似乎是读取文件的部分内容并创建弱哈希值,然后将其与文件的所有其他部分进行比较。如果发现一个哈希值与另一个哈希值相同,则会创建一个更强的哈希值,然后再次比较这些部分。如果这些部分仍然创建相同的哈希值,则不会上传第二部分。相反,备份系统会将文件的重复部分指向其先前备份的副本。
我的问题是……
- 如果 RAW 文件没有改变并且...
- JPEG 很少会改变,并且……
- XMP 文件的某些部分可能已被更改,并且...
- 重复数据删除对 CPU/RAM 的要求非常高,并且……
- 鉴于重复数据删除可以减少传输的数据量……
...是否值得使用重复数据删除技术?