Azure 中约 50TB 的存储空间以单个 Windows 文件共享的形式呈现

Azure 中约 50TB 的存储空间以单个 Windows 文件共享的形式呈现

我已经在 Google 上搜索过了,目前找到的最接近的答案是这里的另一个 SF 问题:Azure 存储限制

目标:

将大约 50TB 的存储空间移至云端,将该存储作为标准 Windows 文件共享呈现,并随着存储空间的不断增长相对轻松地进行扩展。

问题:

看起来单个VHD的大小只能是1TB,这显然是不好的。

我想这里没有人能提供解决方案吧?

感谢您的阅读,

泽维尔。

答案1

尝试研究 Microsoft DFS 命名空间并开始在 Azure 中隔离数据 - 我做过类似的项目。您可以添加一个单独的小型 VHD,然后在第一个驱动器下安装其他 1TB VHD 作为安装点,例如

100GB 磁盘挂载为 D:

然后,第 N 个 1TB VHD 将安装在 D:\Disk1 ... D:\Disk50 下,然后使用 DFS 命名空间,您可以共享数据,例如 \DOMAIN\SHARES\Finance 将映射到 \NEWFILESERVER\DISK43$\Finance 等。

虽然不是最理想的,但可以在 Azure 当前的技术限制内工作。

我希望我已经解释得足够清楚,能够帮助您入门——如果您需要更多帮助,请随时联系我们。

祝你上传 50TB 数据顺利,也许值得考虑将这些数据存储在 Azure 中是否比将其存储在办公室但增加 WAN/Internet 链接更具成本效益。也就是说,您不必担心新硬件等。我想上述解决方案的扩展性会很好。

答案2

Azure 文件服务可能对你有用。另外,正如 HBrujn 上面提到的,1TB 比你正在寻找的 50GB 要大得多。

答案3

Azure 文件存储服务允许您创建最大 5 TB 的文件共享,每个文件最大 1 TB。这实际上是一个 SMB 卷,具有底层 REST API。您可以从 Azure 资源和本地资源访问此共享。

由于您要处理 50TB,因此您需要创建多个文件服务卷。Azure 存储确实支持每个存储帐户最多 500TB,但不支持作为单个文件共享。您将文件上传到离散的 blob 中,允许您访问完整的 500TB,但这不会提供 SMB 接口;相反,您必须依靠您选择的特定语言的 sdk(.net、java、python、node、ruby、php)或直接 REST 调用来使用这些离散对象。

至于将内容移动到云中,您可以使用自己的应用程序(一旦连接到文件共享)或使用 AzCopy 等工具来执行此操作,该工具现在支持文件服务作为源/目标。请参阅本文其中提到了 AzCopy 以及如何使用它来传输文件服务。

相关内容