我已经在 Google 上搜索过了,目前找到的最接近的答案是这里的另一个 SF 问题:Azure 存储限制
目标:
将大约 50TB 的存储空间移至云端,将该存储作为标准 Windows 文件共享呈现,并随着存储空间的不断增长相对轻松地进行扩展。
问题:
看起来单个VHD的大小只能是1TB,这显然是不好的。
我想这里没有人能提供解决方案吧?
感谢您的阅读,
泽维尔。
答案1
尝试研究 Microsoft DFS 命名空间并开始在 Azure 中隔离数据 - 我做过类似的项目。您可以添加一个单独的小型 VHD,然后在第一个驱动器下安装其他 1TB VHD 作为安装点,例如
100GB 磁盘挂载为 D:
然后,第 N 个 1TB VHD 将安装在 D:\Disk1 ... D:\Disk50 下,然后使用 DFS 命名空间,您可以共享数据,例如 \DOMAIN\SHARES\Finance 将映射到 \NEWFILESERVER\DISK43$\Finance 等。
虽然不是最理想的,但可以在 Azure 当前的技术限制内工作。
我希望我已经解释得足够清楚,能够帮助您入门——如果您需要更多帮助,请随时联系我们。
祝你上传 50TB 数据顺利,也许值得考虑将这些数据存储在 Azure 中是否比将其存储在办公室但增加 WAN/Internet 链接更具成本效益。也就是说,您不必担心新硬件等。我想上述解决方案的扩展性会很好。
答案2
Azure 文件服务可能对你有用。另外,正如 HBrujn 上面提到的,1TB 比你正在寻找的 50GB 要大得多。
答案3
Azure 文件存储服务允许您创建最大 5 TB 的文件共享,每个文件最大 1 TB。这实际上是一个 SMB 卷,具有底层 REST API。您可以从 Azure 资源和本地资源访问此共享。
由于您要处理 50TB,因此您需要创建多个文件服务卷。Azure 存储确实支持每个存储帐户最多 500TB,但不支持作为单个文件共享。您能将文件上传到离散的 blob 中,允许您访问完整的 500TB,但这不会提供 SMB 接口;相反,您必须依靠您选择的特定语言的 sdk(.net、java、python、node、ruby、php)或直接 REST 调用来使用这些离散对象。
至于将内容移动到云中,您可以使用自己的应用程序(一旦连接到文件共享)或使用 AzCopy 等工具来执行此操作,该工具现在支持文件服务作为源/目标。请参阅本文其中提到了 AzCopy 以及如何使用它来传输文件服务。