我们运行一个流行的 Web 应用,我们的后端文件存储位于一个文件服务器上,复制到另一个文件服务器,以便使用 DFSR 进行故障转移。我们已达到 DFSR 的理论极限,因此需要开始研究对存储进行分片。
进行分片的最佳方法是什么?我知道我们可以在应用程序级别抽象出文件存储,但除此之外,我对与文件系统交互的第三方控件如何能够挂接到该抽象感到困惑。您见过或能想到的最佳技术是什么?现在假设我们有一个目录结构,如 /Customers/bikesystems、/Customers/10degrees 等。一个包含客户数据的大目录,每个客户在 /Customers 目录中都有自己的文件夹。
我最初的想法是将较大的客户目录分解为更具层次结构的结构,例如 /Customers/b/bikesystems、/Customers/1/10degrees(取每个客户 ID 的首字母或数字),这使我能够为构成客户 ID 的每个首字符创建 DFS 命名空间(对于使用正则表达式的人来说,这是 [a-z0-9])。因此,潜在的 DFS 命名空间有 36 个。然后,随着任何一台服务器的容量增加,我可以将这些命名空间转移到各个服务器。这将为我提供更多的喘息空间,让我能够达到理论上的 DFSR 限制。
这是最好的方法吗?
我知道我们可能会考虑 Linux 或其他企业级存储系统(Isilon 等)。不过,对于本次讨论,我暂时希望将讨论限制在 Windows 上。当然,除非您迫切希望宣扬完全不同的解决方案的好处,并且愿意帮助我看到光明!
答案1
这个网站竟然依赖两台服务器,真是太厉害了!
DFS 复制支持的限制是什么?
以下列表提供了一组已由 Microsoft 在 Windows Server 2008 R2 和 Windows Server 2008 上测试过的可伸缩性指南:
* Size of all replicated files on a server: 10 terabytes. * Number of replicated files on a volume: 8 million. * Maximum file size: 64 gigabytes.