ocfs2

主动-主动 Linux 集群的最佳存储是什么?
ocfs2

主动-主动 Linux 集群的最佳存储是什么?

我们有一个集群,其中有多台 ubuntu 机器连接到一个共享 SAN 存储。最初我们使用 OCFS2 作为文件系统,但遇到了很多问题,我们找不到合适的文档或支持,因此我们决定转向另一个集群系统。那么,考虑到我们需要保持所有节点处于活动状态,并且我们想摆脱集群感知文件系统,您能建议最好的系统吗?我们研究过 DRBD,但它似乎只用于主动-被动设置。 ...

Admin

DBRD 双主 Heartbeat 资源管理
ocfs2

DBRD 双主 Heartbeat 资源管理

我有以下设置: 两台带有 DRBD 的服务器使用 OCFS2 运行双主 具有两个虚拟 IP 的心跳,每个服务器一个 使用循环 DNS 在两个 vIP 之间平衡 NFS 负载 关闭 Server1 一段时间,导致 Server2 接管 vIP 以进行故障转移。但是,当 Server1 恢复时 - 只要心跳再次建立连接,它就会接管指定的 vIP - 即使 DRBD 正在同步运行(因此不是最新的) 如何配置心跳,以便在 Server1 再次与 Server2 同步时立即执行故障恢复?(而不是在此之前) ...

Admin

OCFS2 更新过程
ocfs2

OCFS2 更新过程

我们计划在运行 Red Hat Enterprise Linux (RHEL) 5.6 的项目中使用 OCFS2,因为我们发现 OCFS2 比 GFS 设置起来简单得多。 但是,我担心升级过程,因为我知道 OCFS2 取决于内核版本号。如果我yum update在 RHEL 主机上执行,我可能会收到更新的内核版本。保持 OCFS2 更新和正常运行的正确方法是什么? 让 OCFS2 系统长期运行并获得内核更新的最佳做法是什么? ...

Admin

Azure Managed Lustre 或其他允许 Ubuntu VM 对云中的共享块存储执行并行读/写操作的设置?
ocfs2

Azure Managed Lustre 或其他允许 Ubuntu VM 对云中的共享块存储执行并行读/写操作的设置?

我设置了 8TB 且最大吞吐量为 4GB/s 的 Azure Managed Lustre。 跟随官方文档对于Ubuntu 20.04大小的虚拟机Standard_L8as_v3,我设法挂载文件系统。 然后我使用以下命令测试我的设置:dd写入 :fio dd if=/dev/zero of=<mount_directory>/testfile bs=1G count=5 oflag=dsync && sync && echo "Write Test Completed" fio --name=write_tes...

Admin

运行 tunefs.ocf2s 命令时未找到 ocfs2_dlmfs 文件系统
ocfs2

运行 tunefs.ocf2s 命令时未找到 ocfs2_dlmfs 文件系统

运行以下命令调音器启用discontig-bg文件系统功能的命令: tunefs.ocfs2 --fs-features=discontig-bg /dev/drbd0 我收到以下错误: tunefs.ocfs2: ocfs2_dlmfs file system was not found while opening device "/dev/drbd0" 运行时mount我没有看到ocfs2_dlmfs预期的挂载,只有/dev/drbd0。 我们确实将内核从 升级4.19.0-25-amd64到了5.10,之后遇到了错误。不幸的是,降级到 并4.19...

Admin

drbd:ocfs2 的仲裁和双主,无隔离?
ocfs2

drbd:ocfs2 的仲裁和双主,无隔离?

由于 cephs 在 NVME 上的性能不佳,我再次在 DBRD 上尝试使用 OCFS2。 DBRD 最初似乎是围绕着通知应用程序硬件故障的想法构建的,然后应用程序采取适当的步骤将访问权转移到新的主节点。对于我们的情况来说,这不是一个有用的模式。 DRBD 9 提到了一种基于仲裁的方式: https://linbit.com/drbd-user-guide/drbd-guide-9_0-en/#s-configuring-quorum 如果我理解正确的话,失去法定人数(即当前节点在少数分区)会导致 IO 冻结,直到法定人数重新建立。这是一个令人兴奋的消息,因...

Admin

在实时 OCFS2 集群上添加更多节点
ocfs2

在实时 OCFS2 集群上添加更多节点

我目前有一个包含 4 个节点的 OCFS 集群。我想再添加 6 个。 我做了什么: 我编辑了 /etc/ocfs2/cluster.conf 文件并添加了所有所需的节点。然后我将其复制到所有节点。 当我尝试从 Node06 挂载分区时,我可以在 Node01 的 dmesg 上看到一个未知节点正在尝试访问它。 然后我将 /sys/kernel/config/cluster/ocfs2/node/Node05-Node10 目录复制到现有节点 Node01-Node04。 此后,新的节点可以连接,但我超出了插槽限制,即 4 个插槽。 我尝试通过运行 tune...

Admin

具有 ocfs2 和 gfs2 的单个 SAN
ocfs2

具有 ocfs2 和 gfs2 的单个 SAN

我有一个带有两个虚拟驱动器的 SAN。(即,它们是单独的挂载,但它们映射到同一个 IP 地址)例如,如果我这样做ls /dev/disk/by-path/,我会看到以下内容: ip-172.16.100.5:3260-iscsi-iqn.[all same]-lun-0@ ip-172.16.100.5:3260-iscsi-iqn.[all same]-lun-1@ ip-172.16.100.6:3260-iscsi-iqn.[all same]-lun-0@ ip-172.16.100.6:3260-iscsi-iqn.[all same]-lun-1...

Admin

通过 VLAN 将 iSCSI 与以太网分离
ocfs2

通过 VLAN 将 iSCSI 与以太网分离

我已经设置了一个由几台服务器以及 SAN 组成的小型集群。这些服务器运行的是 Ubuntu 20.04 LTS。 根据供应商提供的说明(我找不到以前在哪里读到过),他们建议 SAN 和服务器之间的 iSCSI 连接应该(或者可能是“必须”?)与任何以太网流量分开。因此,我在交换机上配置了两个 VLAN — 一个用于 iSCSI 流量,一个用于服务器之间的以太网流量(SAN 不在上面)。 到目前为止,一切似乎都很好。假设以太网位于 172.16.100.XXX/24,iSCSI 位于 172.16.200.XXX/24。更具体地说,地址如下所示: 机器...

Admin

使用 drbd 和 pacemaker 配置主动-主动共享磁盘失败
ocfs2

使用 drbd 和 pacemaker 配置主动-主动共享磁盘失败

我跟着从头开始构建集群说明,第 8 章和第 9 章,使用 drbd 和 pacemaker 配置主动-主动共享磁盘集群。与该教程的不同之处在于我使用的是 OCFS2 而不是 glusterfs。 没有起搏器它工作正常,但是当我想要集成到集群时,它会失败并显示以下错误消息: # pcs status Cluster name: datacluster Stack: corosync Current DC: darwin (version 2.0.1-9e909a5bdd) - partition with quorum Last updated: Wed M...

Admin

OCFS2 作为 QCOW2 格式的 KVM 存储的状态
ocfs2

OCFS2 作为 QCOW2 格式的 KVM 存储的状态

使用共享 iSCSI SAN 的全固态硬盘和良好的集群感知文件系统在 Linux 中很少见。现代 Linux 内核的 OCFS2 状态如何?在生产中,32 台机器共享同一卷是否足够可靠?这将是使用 QCOW2 的纯粹 VM 映像存储,因此主要是大文件。 (或其生产环境的替代方案) ...

Admin

OCFS2 添加节点
ocfs2

OCFS2 添加节点

我有在不同的机器上运行 nginx 和 php fpm 的虚拟机,目前我使用了一种非常愚蠢的手动同步目录的方法,因为集群不是那么大。但是我还有另一台服务器,我想将其用作共享存储设备。 到目前为止,我了解到我可以通过 ocfs2 文件系统通过 iscsi 提供存储。让我困扰的是,初始设置需要提前指定每个节点,然后要添加节点,我需要关闭 o2cb 以应用更改。 目标是通过 iscsi 为 nginx 和 php-fpm 节点提供共享存储(所以我不必进行复制),但是节点数量可以根据集群的负载而增加。 想法 #1:也许我可以通过主机以某种方式为我的虚拟机提供存储,这...

Admin

廉价、基于商品硬件、高可用性的分布式文件系统
ocfs2

廉价、基于商品硬件、高可用性的分布式文件系统

我有两台运行 Linux 的 PC,每台都有 2 TB 的磁盘和一台小型千兆交换机。为了以低成本构建高可用性系统,我采用了以下堆栈: 两台电脑上都有带有 ZFS 和 DRBD9 的定制 5.6 内核。 每台 PC 的每个本地磁盘的一个分区中都有一个 zvol - 启用压缩,禁用重复数据删除(尝试启用压缩,但一切都失败了) 双主 DRBD9 在它们之间进行镜像 OCFS2 位于顶部,用于在两台 PC 上安装生成的设备 第三台非常旧的机器充当 DRBD 仲裁器,没有实际的磁盘空间参与 DRBD 镜像。 第二个交...

Admin

混合 ocfs2 集群:直接访问和 iscsi
ocfs2

混合 ocfs2 集群:直接访问和 iscsi

早上好, 我有这样的配置: 配置图 一个“共享磁盘”,其中一个分区格式化为 OCFS2 主机 A 和主机 B 可直接访问“共享磁盘” 主机 C 可直接访问用作 iSCSI 目标的“共享磁盘”,并配置 linux tgt (iSCSI) 以访问“共享磁盘” 主机 D 和主机 E 作为 iSCSI 启动器使用主机 C 访问“共享磁盘” 主机 A、B、D 和 E 是同一个 OCFS2 集群的一部分, 我进行了以下测试: 仅在主机 A 和 B 上同时使用 OCFS2 安装共享 fs(在每个主机上,安装分区时 ocfs2 守护进程都会正确记录加入集群的情况) 同时...

Admin