如何在我的文件服务器中有效地保存数 TB 的 Photoshop 文件?

如何在我的文件服务器中有效地保存数 TB 的 Photoshop 文件?

我有一个包含 1Tb PSD(photoshop)文件的文件服务器。

我们是一家印刷公司,此 psd 直接被在线编辑面板使用。

我尝试压缩这些 psd,但是我无法 zip/tar 它们,因为每次都必须先解压缩才能在面板中打开它们。

根据我的理解,所有 psd 必须有一些共同点(所有 photoshop 文件的基本部分),所以我想知道是否可以以某种方式将这些文件的共同部分提取到一个文件中,从而在一定程度上减少空间需求。

我尝试过,但无法做到,因为文件是二进制文件。该怎么做?

请注意,我不确定哪个 stackexchange 社区最适合提出这样的问题,我对 serverfault 最有信心,但如果有更好的社区来讨论这个问题,请帮助我将这个问题转移到那里。

答案1

您的要求有点不清楚,但我认为可以肯定地说,您正在寻找某种“魔法”来对 Photoshop(PSD)数据文件进行重复数据删除或压缩。

不存在这样的魔法。压缩可能会带来很小的增量收益,但没有什么意义。PSD 文件(即现代版本)已经采用压缩,导致高熵密度。您不能只是压缩已经压缩的文件并以某种方式使其变小。(如果您以某种方式弄清楚如何做到这一点,您将变得非常富有……)

如果您的文件足够相似,则重复数据删除可能是可行的,但您的文件不太可能具有足够相似的组成,因此您无法通过这种方式获得任何好处。可能会有相似的标头/元数据块,但我怀疑它们的大小不会很大。

TL;DR - 你所要求的是不存在的计算机科学“魔法”。

相关内容