shared-storage

NAS 上的 iscsi 并发访问 / iscsi 卷共享访问
shared-storage

NAS 上的 iscsi 并发访问 / iscsi 卷共享访问

我有一个 7 托架网络存储带有 Raid-5(可用容量为 5.3TB)的盒子,使用 netgear 千兆以太网交换机连接主机(3 个 Windows7 机器规格:i7 / 16GB RAM / 1TB HDD / 千兆以太网 NIC)。(所有端点都配置了巨型帧支持 9014B)。 NAS BOX 有 2 个独立的 1G 以太网端口(支持链路聚合/负载平衡/故障转移等),以及一个 pci 插槽,如果需要,我可以在其中使用 10G 以太网卡。 并在我的 nas 盒上配置了单个 SCSI 卷,并提供可用的最大空间。 现在我的要求是,我想要并发访问单个 scs...

Admin

在 Hyper V 2019 中将 VHD 集或 VHDX 附加为共享磁盘“虚拟硬盘所在的存储不支持虚拟硬盘共享”
shared-storage

在 Hyper V 2019 中将 VHD 集或 VHDX 附加为共享磁盘“虚拟硬盘所在的存储不支持虚拟硬盘共享”

WS 服务器 2019 Hyper V 在存储 VHD 的同一位置创建了 VHD 集 (.VHDS) 以供 VM 使用。 当尝试附加文件(在 GUI 中或通过 PowerShell)时,出现此错误: PS C:\Users\Administrator> Add-VMHardDiskDrive -ComputerName "VM-S01-HV" -VMName "VM-S04-FS1_V0" -ControllerNumber 0 -ControllerLocation 1 -Path G:\A_VHDS\001_VM-USERFILESHARE\VM-...

Admin

Linux 中挂载后所有权随机变化的行为
shared-storage

Linux 中挂载后所有权随机变化的行为

所以我确实知道,默认情况下,当我们挂载时,用户/组所有权被设置uid=0=gid为属于根,我在挂载手册页中读到了这一点。 奇怪的是,我正在安装一个 NFS 共享,/oradata其中有一个我创建的目录,如下所示: [root@sandbox ~]# mkdir /oradata [root@sandbox ~]# chown oradata:oinstall /oradata 然后进行 NFS 挂载: [root@sandbox ~]# mount -t nfs -o rw,hard,rsize=1048576,wsize=1048576,vers=3,t...

Admin

无法访问 Windows 服务器上的共享存储
shared-storage

无法访问 Windows 服务器上的共享存储

我有 NAS 存储,共享一个文件夹。当我登录到(特定)Windows 服务器并尝试连接到该共享时,它失败了。但在另一台服务器上执行相同操作时,它会成功。因此,我认为问题出在特定服务器上的用户配置文件上。 有什么办法可以解决这个问题吗?也许可以清除用户配置文件的缓存? 谢谢 ...

Admin

drbd - 除非先启动,否则无盘节点不会加入集群
shared-storage

drbd - 除非先启动,否则无盘节点不会加入集群

再会, 我正在尝试设置一个 3 节点 DRBD9 集群 2个节点实际有一个磁盘 带有磁盘的 2 个节点通过交叉电缆直接连接,并通过交换机与第三个节点连接 第三个节点是无盘节点,充当决胜节点 在所有三个节点上的配置都非常简单: 全局通用配置文件 global { usage-count yes; } common { net { protocol C; allow-two-primaries yes; transport "tcp"; } } 爱丽丝鲍勃.res: resource alice-bob ...

Admin

OpenStack冗余共享存储后端解决方案
shared-storage

OpenStack冗余共享存储后端解决方案

哪些存储后端推荐用于允许实时迁移和共享存储的 OpenStack?它是 NFS / Ceph / 存储后端驱动程序还是商业存储解决方案?哪个更好?在 VMware vSphere 中,由于有 VMFS,因此可以在所有主机上使用 iSCSI 目标。iSCSI 真的不适合裸机主机上的 OpenStack 吗? ...

Admin

如何使用 FreeNAS 作为共享存储来扩展 Active-Active 集群?
shared-storage

如何使用 FreeNAS 作为共享存储来扩展 Active-Active 集群?

我有两个由 供电Ubuntu并相互连接的物理节点Corosync。并且我有 的FreeNAS服务器NAS。此NAS服务器安装在每个节点上 - 基本场景。 现在我无法向我的 NAS 添加更多 HDD/SDD。我无法添加更多空间。用完了可用的 SATA 端口,也用完了 PCI 端口来添加更多端口。“榨干了所有的汁液”。我只看到一个解决方案:运行新NAS服务器,将其安装在每个节点上,像第一个一样,在每个节点上更新应用程序的配置以告知新的可用路径并重新启动此应用程序。 我认为这可能是最糟糕的解决方案: 需要停止应用程序 手动操作太多 请帮我找到最适合我的...

Admin

将 Windows Server 共享与 OneDrive 同步
shared-storage

将 Windows Server 共享与 OneDrive 同步

最近,我的一个客户购买了 Office 365,现在我们有大量在线空间需要填充,因此,我们想将 WS2012 中的一些主要文件夹同步到该 Office 365,以便始终可以访问并保持最新。 最好的方法是什么?我试过 OneDrive,但没有成功,你们有什么开源软件推荐吗?最好是像同步任何更改的服务 ...

Admin

是否可以在另一台服务器上已使用的数据库文件夹上拥有只读的 MongoDB 实例?
shared-storage

是否可以在另一台服务器上已使用的数据库文件夹上拥有只读的 MongoDB 实例?

我有以下设置: — 许多服务器 — 一个共享的网络安装数据存储文件夹 在其中一台服务器上,我需要运行 MongoDB 来向其中写入数据。我希望能够在一个实例仍在运行时从其他服务器访问这些写入的数据。是否可以拥有允许这样做的 MongoDB 只读实例?在所有其他服务器上,我不需要写入任何内容,只需读取即可。 ...

Admin

节点1
shared-storage

节点1

由于共享磁盘问题,Oracle RAC 安装失败。运行“runcluvfy.sh”以验证节点之间的磁盘共享时,它在节点 2 上失败。 我收集了以下命令的跟踪日志以供分析。 ./runcluvfy.sh comp ssa -n rac-node1 -s /dev/mapper/asm-data1p1 输出 -https://pastebin.com/SfCj88W4 ./runcluvfy.sh comp ssa -n rac-node2 -s /dev/mapper/asm-data1p1 输出 -https://pastebin.com/Y7eU...

Admin

GFS2 单写入器多读取器设置
shared-storage

GFS2 单写入器多读取器设置

我希望您能就我正在实施的设置提供建议,以便允许多台主机在共享 iSCSI 存储上共享偶尔变化的数据。我使用 GFS2 来共享对 iSCSI 上的 LVM2 逻辑卷的访问权限,并且我宁愿避免使用 CoroSync 等设置集群的复杂性。 我已将文件系统格式化,并将锁定设置为锁定_无锁定和单个日志。单个节点将负责执行定期更新,这通常包括将新文件复制到卷中,但不更改现有文件,而所有其他节点将把它挂载为观众,ro根据手册页,这将: 使用特殊形式的只读挂载来挂载此文件系统。挂载不会使用文件系统的日志之一。该节点无法恢复其他节点的日志。 我是否可以合理地期望...

Admin

虚拟机之间的共享存储
shared-storage

虚拟机之间的共享存储

我们计划在虚拟环境中设置 HA Apache 服务器。服务器之间的负载平衡运行良好。我们面临的问题如下: 我们希望为所有 Apache 服务器提供一个物理存储(即放置 Web 内容的地方)。每个客户在存储磁盘上都有自己的用户和自己的目录。这意味着每个客户只能从我们的每个 Apache 服务器访问此“共享”存储上的自己的目录。 就以下方面而言,实现我们目标的最佳方法是什么: 同步用户 共享存储 同步权限 高可用性 高性能 ...

Admin

哪种技术允许具有优先本地读写的集群共享存储?
shared-storage

哪种技术允许具有优先本地读写的集群共享存储?

我有两三台稍旧的 HP ProLiant DL380 G6/7 型服务器,只有 x * 1 GBit 以太网,但 CPU 性能、RAM 相当强,并且能够提供相当数量的本地存储。我有兴趣构建一个小型集群式设置,其中包含两个甚至三个节点,所有这些节点都提供服务,就像我目前理解的“超融合”流行词一样。这些服务尤其是托管虚拟机,而虚拟机本身又托管用于不同 Web 应用程序的 Web 服务器、一些守护程序、数据库等。在应用程序级别上,东西非常不同,有些受 I/O 限制,有些不受限制。 服务器目前正在使用 Synology 的一些入门级/中端 NAS,但情况不再那么好...

Admin

为 SQL FCI 提供高达 2M IOPS 的 S2D 设置
shared-storage

为 SQL FCI 提供高达 2M IOPS 的 S2D 设置

我们即将部署共享存储,研究超快速存储以实现 Microsoft SQL Server 故障转移群集 (FCI)。到目前为止,该项目将以 8k 块的 500K IOPS 开始,大约 70r/30w 模式。此外,由于 SQL 服务器的预期不断增长,我们希望能够在一年左右的时间内将性能提高到 2M IOPS(对于相同的模式)。 为了完成项目,我们将部署 4 节点 Microsoft Storage Spaces Direct (S2D) 集群。至于硬件,我们已经拥有 2 台戴尔机架式服务器 R730xd,配备 2 个 E5-2697 和 512GB RAM,我们...

Admin

从性价比来看,选择三星 960 EVO 比选择 Pro 版更糟糕吗?
shared-storage

从性价比来看,选择三星 960 EVO 比选择 Pro 版更糟糕吗?

我们即将部署共享存储,研究超快速存储以实现 Microsoft SQL Server 故障转移群集 (FCI)。到目前为止,该项目将从 500K IOPS 开始,并有能力在一年左右的时间内增长到 2M IOPS,因为 SQL 服务器的增长预期。 为了完成项目,我们将部署 4 节点 Microsoft Storage Spaces Direct (S2D) 集群。Microsoft 建议使用 NVMe 或 NVMe + SSD 以获得最佳性能。因此,经过一番研究,三星 SSD 是不错的选择。我们考虑的设置如下:...

Admin