在我目前工作的环境中,有多个服务器专门用于各个部门。但是我们最近得到了几台相同的服务器,大约 10 台以上。我希望有人能为我指明一个有效的利用所有这些服务器的好方法。
本质上,我们将大文件存储在服务器上以供下载,而较少上传到服务器。
我的目标是创建一个好的选项,使数据可以在一个(或几个)中心位置访问,我可以将脚本指向该位置,并且用户可以轻松访问。
我理想的做法是将所有这些服务器连接为一个、几个虚拟机或一个网络文件共享,具有足够的带宽和冗余度来保证文件的安全并允许尽快复制数据。
为了完成这些任务,我一直在研究一些事情:
—DFS
-故障转移群集
-Starwind Virtual SAN(免费版本)
值得注意的是,这些服务器相当老旧,大约是 9 年前的。
任何关于配置的建议都将不胜感激,我有点不知所措
答案1
DFS-N 还可以(当然,如果应用得当的话!),而 DFS-R 则应该尽量避免。它存在许多问题,无法复制打开的文件是一个非常严重的问题。有趣的是,微软曾一度“修复”过这个问题,但不幸的是,它从未出现在生产版本中。
Windows Server 故障转移群集 (WSFC) 是一种需要一些共享存储(在您的场景内)的机制,因此它并不是独立的东西。
StarWind(即使是免费版本)也允许您创建一个集群共享卷(CSV),并且您可以在其上分层 WSFC,最终完成您想做的事情。
PS 当然还有其他存储选项,包括 Windows Server 内置的 S2D,但它需要全面的数据中心版本(昂贵!)并且缺乏时间的考验和可靠性。
答案2
DFS 复制是一场噩梦。对于 9 年前的服务器,我会使用 Starwinds VSAN 在它们之间进行复制。这就是我在其中一个部署中使用它的原因。S2D 肯定不适合这个硬件时代。然后,您可以按照上述方法将节点组合到故障转移群集中,并在 CSV 上运行文件服务器/VM。如果您想使用 DFS,我会将复制留给 Starwinds 并在其上配置 DFS 命名空间。