主动-主动 Linux 集群的最佳存储是什么?
我们有一个集群,其中有多台 ubuntu 机器连接到一个共享 SAN 存储。最初我们使用 OCFS2 作为文件系统,但遇到了很多问题,我们找不到合适的文档或支持,因此我们决定转向另一个集群系统。那么,考虑到我们需要保持所有节点处于活动状态,并且我们想摆脱集群感知文件系统,您能建议最好的系统吗?我们研究过 DRBD,但它似乎只用于主动-被动设置。 ...
我们有一个集群,其中有多台 ubuntu 机器连接到一个共享 SAN 存储。最初我们使用 OCFS2 作为文件系统,但遇到了很多问题,我们找不到合适的文档或支持,因此我们决定转向另一个集群系统。那么,考虑到我们需要保持所有节点处于活动状态,并且我们想摆脱集群感知文件系统,您能建议最好的系统吗?我们研究过 DRBD,但它似乎只用于主动-被动设置。 ...
我有以下设置: 两台带有 DRBD 的服务器使用 OCFS2 运行双主 具有两个虚拟 IP 的心跳,每个服务器一个 使用循环 DNS 在两个 vIP 之间平衡 NFS 负载 关闭 Server1 一段时间,导致 Server2 接管 vIP 以进行故障转移。但是,当 Server1 恢复时 - 只要心跳再次建立连接,它就会接管指定的 vIP - 即使 DRBD 正在同步运行(因此不是最新的) 如何配置心跳,以便在 Server1 再次与 Server2 同步时立即执行故障恢复?(而不是在此之前) ...
我们计划在运行 Red Hat Enterprise Linux (RHEL) 5.6 的项目中使用 OCFS2,因为我们发现 OCFS2 比 GFS 设置起来简单得多。 但是,我担心升级过程,因为我知道 OCFS2 取决于内核版本号。如果我yum update在 RHEL 主机上执行,我可能会收到更新的内核版本。保持 OCFS2 更新和正常运行的正确方法是什么? 让 OCFS2 系统长期运行并获得内核更新的最佳做法是什么? ...
我设置了 8TB 且最大吞吐量为 4GB/s 的 Azure Managed Lustre。 跟随官方文档对于Ubuntu 20.04大小的虚拟机Standard_L8as_v3,我设法挂载文件系统。 然后我使用以下命令测试我的设置:dd写入 :fio dd if=/dev/zero of=<mount_directory>/testfile bs=1G count=5 oflag=dsync && sync && echo "Write Test Completed" fio --name=write_tes...
运行以下命令调音器启用discontig-bg文件系统功能的命令: tunefs.ocfs2 --fs-features=discontig-bg /dev/drbd0 我收到以下错误: tunefs.ocfs2: ocfs2_dlmfs file system was not found while opening device "/dev/drbd0" 运行时mount我没有看到ocfs2_dlmfs预期的挂载,只有/dev/drbd0。 我们确实将内核从 升级4.19.0-25-amd64到了5.10,之后遇到了错误。不幸的是,降级到 并4.19...
在性能不是主要问题的服务器之间设置共享/集群读写 POSIX 兼容文件系统的最简单方法是什么? 假设我有两台 Linux 服务器S1和S2一个未初始化的(没有文件系统)块设备/dev/sdb。 注意:自答问题。 ...
由于 cephs 在 NVME 上的性能不佳,我再次在 DBRD 上尝试使用 OCFS2。 DBRD 最初似乎是围绕着通知应用程序硬件故障的想法构建的,然后应用程序采取适当的步骤将访问权转移到新的主节点。对于我们的情况来说,这不是一个有用的模式。 DRBD 9 提到了一种基于仲裁的方式: https://linbit.com/drbd-user-guide/drbd-guide-9_0-en/#s-configuring-quorum 如果我理解正确的话,失去法定人数(即当前节点在少数分区)会导致 IO 冻结,直到法定人数重新建立。这是一个令人兴奋的消息,因...
我目前有一个包含 4 个节点的 OCFS 集群。我想再添加 6 个。 我做了什么: 我编辑了 /etc/ocfs2/cluster.conf 文件并添加了所有所需的节点。然后我将其复制到所有节点。 当我尝试从 Node06 挂载分区时,我可以在 Node01 的 dmesg 上看到一个未知节点正在尝试访问它。 然后我将 /sys/kernel/config/cluster/ocfs2/node/Node05-Node10 目录复制到现有节点 Node01-Node04。 此后,新的节点可以连接,但我超出了插槽限制,即 4 个插槽。 我尝试通过运行 tune...
我有一个带有两个虚拟驱动器的 SAN。(即,它们是单独的挂载,但它们映射到同一个 IP 地址)例如,如果我这样做ls /dev/disk/by-path/,我会看到以下内容: ip-172.16.100.5:3260-iscsi-iqn.[all same]-lun-0@ ip-172.16.100.5:3260-iscsi-iqn.[all same]-lun-1@ ip-172.16.100.6:3260-iscsi-iqn.[all same]-lun-0@ ip-172.16.100.6:3260-iscsi-iqn.[all same]-lun-1...
我已经设置了一个由几台服务器以及 SAN 组成的小型集群。这些服务器运行的是 Ubuntu 20.04 LTS。 根据供应商提供的说明(我找不到以前在哪里读到过),他们建议 SAN 和服务器之间的 iSCSI 连接应该(或者可能是“必须”?)与任何以太网流量分开。因此,我在交换机上配置了两个 VLAN — 一个用于 iSCSI 流量,一个用于服务器之间的以太网流量(SAN 不在上面)。 到目前为止,一切似乎都很好。假设以太网位于 172.16.100.XXX/24,iSCSI 位于 172.16.200.XXX/24。更具体地说,地址如下所示: 机器...
我跟着从头开始构建集群说明,第 8 章和第 9 章,使用 drbd 和 pacemaker 配置主动-主动共享磁盘集群。与该教程的不同之处在于我使用的是 OCFS2 而不是 glusterfs。 没有起搏器它工作正常,但是当我想要集成到集群时,它会失败并显示以下错误消息: # pcs status Cluster name: datacluster Stack: corosync Current DC: darwin (version 2.0.1-9e909a5bdd) - partition with quorum Last updated: Wed M...
使用共享 iSCSI SAN 的全固态硬盘和良好的集群感知文件系统在 Linux 中很少见。现代 Linux 内核的 OCFS2 状态如何?在生产中,32 台机器共享同一卷是否足够可靠?这将是使用 QCOW2 的纯粹 VM 映像存储,因此主要是大文件。 (或其生产环境的替代方案) ...
我有在不同的机器上运行 nginx 和 php fpm 的虚拟机,目前我使用了一种非常愚蠢的手动同步目录的方法,因为集群不是那么大。但是我还有另一台服务器,我想将其用作共享存储设备。 到目前为止,我了解到我可以通过 ocfs2 文件系统通过 iscsi 提供存储。让我困扰的是,初始设置需要提前指定每个节点,然后要添加节点,我需要关闭 o2cb 以应用更改。 目标是通过 iscsi 为 nginx 和 php-fpm 节点提供共享存储(所以我不必进行复制),但是节点数量可以根据集群的负载而增加。 想法 #1:也许我可以通过主机以某种方式为我的虚拟机提供存储,这...
我有两台运行 Linux 的 PC,每台都有 2 TB 的磁盘和一台小型千兆交换机。为了以低成本构建高可用性系统,我采用了以下堆栈: 两台电脑上都有带有 ZFS 和 DRBD9 的定制 5.6 内核。 每台 PC 的每个本地磁盘的一个分区中都有一个 zvol - 启用压缩,禁用重复数据删除(尝试启用压缩,但一切都失败了) 双主 DRBD9 在它们之间进行镜像 OCFS2 位于顶部,用于在两台 PC 上安装生成的设备 第三台非常旧的机器充当 DRBD 仲裁器,没有实际的磁盘空间参与 DRBD 镜像。 第二个交...
早上好, 我有这样的配置: 配置图 一个“共享磁盘”,其中一个分区格式化为 OCFS2 主机 A 和主机 B 可直接访问“共享磁盘” 主机 C 可直接访问用作 iSCSI 目标的“共享磁盘”,并配置 linux tgt (iSCSI) 以访问“共享磁盘” 主机 D 和主机 E 作为 iSCSI 启动器使用主机 C 访问“共享磁盘” 主机 A、B、D 和 E 是同一个 OCFS2 集群的一部分, 我进行了以下测试: 仅在主机 A 和 B 上同时使用 OCFS2 安装共享 fs(在每个主机上,安装分区时 ocfs2 守护进程都会正确记录加入集群的情况) 同时...