gfs2

iSCSI 共享存储的 Linux 文件系统选项
gfs2

iSCSI 共享存储的 Linux 文件系统选项

我正在尝试确定用于共享存储设备的文件系统的“最佳选择”,该存储设备将通过 iSCSI 安装在数量不确定的服务器上。 设置: 27TB Synology RS2212+ 阵列,允许多个会话的 iSCSI LUN/目标 10-20 个基于 CentOS 的 Linux 机器,主要用于网络服务器 共享存储将托管静态 Web 内容(媒体,主要是图像) 本质上,我需要能够在多个 Web 服务器上安装这个大型共享卷,并且希望随着时间的推移,这个数字会继续增长。我们过去一直在使用 NFS,但性能问题迫使我们研究其他方法。(阅读:NFS 调整有时感觉像黑魔法,特别...

Admin

Azure Managed Lustre 或其他允许 Ubuntu VM 对云中的共享块存储执行并行读/写操作的设置?
gfs2

Azure Managed Lustre 或其他允许 Ubuntu VM 对云中的共享块存储执行并行读/写操作的设置?

我设置了 8TB 且最大吞吐量为 4GB/s 的 Azure Managed Lustre。 跟随官方文档对于Ubuntu 20.04大小的虚拟机Standard_L8as_v3,我设法挂载文件系统。 然后我使用以下命令测试我的设置:dd写入 :fio dd if=/dev/zero of=<mount_directory>/testfile bs=1G count=5 oflag=dsync && sync && echo "Write Test Completed" fio --name=write_tes...

Admin

Libvirt 共享存储池
gfs2

Libvirt 共享存储池

我希望这是一个简短的问题。我正在运行: CENTOS 9 虚拟机管理程序 起搏器、DLM、lvmlockd、fence_scsi 我有一个简单的双节点 KVM 集群,其中我在连接的使用 GFS2 格式化的 iSCSI LUN 上设置了一个 LVM 逻辑卷。我一直在遵循 RH 的“配置和管理高可用性集群指南“。 从起搏器、LVM 锁定、隔离、共享文件系统的角度来看,情况看起来不错: [root@lab-kvm-01 ~]# pcs status --full Cluster name: kvm_cluster Cluster Summary: * St...

Admin

让 DRBD 从冷启动到同步状态
gfs2

让 DRBD 从冷启动到同步状态

我在一个具有嵌入式高可用性 NVMeoF 集群的环境中工作,需要该集群在所有节点冷启动后几分钟内可用,并尝试在该集群上设置 RAID-10。 我使用的旧式基础架构基于 GFS2 和 LVM2。不幸的是,LVM 的 raid-10 选项似乎只允许 GFS2 使用一个日志,而我需要更多日志。我开始使用 DRBD 手动设置一系列 RAID-1 阵列,然后使用 LVM2 设置 RAID-0。我能够毫不费力地完成设置。然而,此时,我遇到了一个问题:如何彻底关闭并重新启动节点以实现无缝数据转换? 我最初的基本尝试导致每个主板在启动时同步率为 0%,并且需要数小时才能重新...

Admin

具有 ocfs2 和 gfs2 的单个 SAN
gfs2

具有 ocfs2 和 gfs2 的单个 SAN

我有一个带有两个虚拟驱动器的 SAN。(即,它们是单独的挂载,但它们映射到同一个 IP 地址)例如,如果我这样做ls /dev/disk/by-path/,我会看到以下内容: ip-172.16.100.5:3260-iscsi-iqn.[all same]-lun-0@ ip-172.16.100.5:3260-iscsi-iqn.[all same]-lun-1@ ip-172.16.100.6:3260-iscsi-iqn.[all same]-lun-0@ ip-172.16.100.6:3260-iscsi-iqn.[all same]-lun-1...

Admin

GFS2:如何在 Ubuntu 18.04 中重命名 clustername/lockspace/fsid/locktable 名称
gfs2

GFS2:如何在 Ubuntu 18.04 中重命名 clustername/lockspace/fsid/locktable 名称

前段时间,我创建了我的第一个 GFS2 来进行测试: mkfs.gfs2 -t cluster-test:gfs-vol1 -p lock_dlm -j 3 /dev/vg2/gfs-vol1 从mkfs.gfs2(8) man: -t 集群名称:锁空间 “锁定表”对用于在集群中唯一标识此文件系统。集群名称段(最多 32 个字符)必须与集群配置中指定的名称相匹配;只有此集群的成员才允许使用此文件系统。锁定空间段(最多 30 个字符)是用于区分此 gfs2 文件系统的唯一文件系统名称。有效的集群名称和锁定空间只能包含字母数字字符、连字符...

Admin

GFS2 单写入器多读取器设置
gfs2

GFS2 单写入器多读取器设置

我希望您能就我正在实施的设置提供建议,以便允许多台主机在共享 iSCSI 存储上共享偶尔变化的数据。我使用 GFS2 来共享对 iSCSI 上的 LVM2 逻辑卷的访问权限,并且我宁愿避免使用 CoroSync 等设置集群的复杂性。 我已将文件系统格式化,并将锁定设置为锁定_无锁定和单个日志。单个节点将负责执行定期更新,这通常包括将新文件复制到卷中,但不更改现有文件,而所有其他节点将把它挂载为观众,ro根据手册页,这将: 使用特殊形式的只读挂载来挂载此文件系统。挂载不会使用文件系统的日志之一。该节点无法恢复其他节点的日志。 我是否可以合理地期望...

Admin

由于 cman 服务导致集群激活失败
gfs2

由于 cman 服务导致集群激活失败

我有一个 50TB 的 SAN 设备,它有两个分区。其中一个分区是配置为在两个节点之间共享的 gfs2。但是,我在一个节点上安装此分区时遇到了麻烦,而在另一个节点上却没有。 当我尝试安装它时出现以下错误, gfs_controld join connect error: error mounting lockproto lock_dlm 我认为它与 cman 有关,因为它说它无法正确建立 dbus 连接,但该服务在另一个节点上看起来正常。以下是问题节点上的 cman 服务的输出。 # systemctl status cman.service # ...

Admin

小型文件系统上文件大小非常奇怪(超过 600 PB)
gfs2

小型文件系统上文件大小非常奇怪(超过 600 PB)

我在 XFS 文件系统上有一个文件,大小约为 200 GB。这是一个 QCOW2 映像,包含 KVM 驱动的虚拟机的虚拟磁盘。出了点问题(可能是 qemu-kvm 的一些故障,我不确定),虚拟机崩溃了,现在我有一个如下所示的文件: 191090708 -rwxr--r--. 1 root root 737571587400425984 Oct 10 10:03 973d10e0-a5e3-4a59-9f98-4b9b9f072ade 因此,它仍然占用 191090708 个块,但ls显示为 656 PB。 此外,我还有另一个具有相同历史记录的文件,但...

Admin

哪些分布式文件系统,对于小文件的读/写工作负载表现更好?
gfs2

哪些分布式文件系统,对于小文件的读/写工作负载表现更好?

我有两台机器通过 iscsi(多路径)共享存储,很快我们又要添加一台,这些机器是 Web 应用服务器,它们读取共享存储上的小文件(< 256kB),然后将其写回。因此,我们写入的内容与读取的内容大致相同。我们需要数据复制,并且两台服务器都可以访问这些文件。 我们测试了 OCFS2 和 GFS2,两者都存在性能问题,导致整个应用程序运行缓慢。我尝试了两种解决方案的许多改进,但都没有成功。 这两种解决方案的性能都会随着时间的推移而下降,这种分布式 FS 是否适合这种工作负载?是否有其他更好的解决方案可以在具有数据复制的 2-3 个服务器的小型集群上读取...

Admin

从集群文件服务器 DRBD 和 GFS2 运行服务器
gfs2

从集群文件服务器 DRBD 和 GFS2 运行服务器

我们正在尝试消除没有 SAN 的文件单点故障。我们目前有一台服务器用于文件服务(本地)、Web 服务器和数据库(在 VM 中)。考虑使用 DRBD 和 GFS2 创建集群文件系统,然后从该文件系统运行尽可能多的内容,包括主机操作系统、VM 和共享文件。 我们希望在主/从设置中设置两台服务器,从共享源运行;但服务器的硬件配置会略有不同(驱动器端口分配、主板的实际品牌和型号、网卡等),因此硬件配置文件将保存在本地(例如 fstab 和 mdadm)。 理想情况下,一台服务器将充当主服务器。 软件包管理将仅由集群文件系统上的主服务器进行因为如果从属服务器使用...

Admin

哪个文件系统最好地处理多个并发写入会话
gfs2

哪个文件系统最好地处理多个并发写入会话

哪个文件系统最适合处理多个并发写入会话 哪个文件系统可以处理更多并发写入会话;比如说 32 个写入会话? 文件系统必须处理 32 个并发会话,每个会话在 5 分钟内写入 100Mb 未压缩的数据文件。请提出建议 ...

Admin

mkfs.gfs2 在 centos7 集群上静默失败吗?
gfs2

mkfs.gfs2 在 centos7 集群上静默失败吗?

我正在使用 centos7 和 pacemaker 构建一个测试集群,并通过集群 LVM 在 GFS2 上进行共享存储。 我已经设置了一个 2 节点集群,dlm 和 clvmd,两个节点都可以看到集群逻辑卷。此集群的隔离功能已禁用。 但是,当我尝试将集群逻辑卷格式化为 GFS2 时,操作失败且未在其上创建文件系统。 输出mkfs(我之前在逻辑卷上创建了一个 ext4 文件系统以检查它是否可以访问): [root@rsfe2 ~]# mkfs -t gfs2 -p lock_dlm -j 2 -t fecluster:cluster_lv_gfs /d...

Admin

高可用性/故障安全两个不同位置
gfs2

高可用性/故障安全两个不同位置

我想知道是否有人可以帮助完成这个看似不太困难的设置。我刚刚开始进行多服务器设置。如果我的问题很愚蠢,我深表歉意。 我在不同位置有两个 Debian 服务器。目的是为 apache/mysql/filesystem 创建一个故障安全和高可用性系统。两个服务器应一起处理请求(如果可能,使用一个域名或一个 IP)。如果其中一个发生故障(电源、硬件、网络),另一个应接管所有请求,并且当第一个服务器恢复时,它应同步并重新上线。 所以问题是:1) 我一直在探索 pacemaker/corosync 配置,但没有找到关于在不同位置使用它的良好教程(所有操作方法都适用于...

Admin

CentOs 6.5 GFS2 DRBD SAMBA CTDB:g_lock_force_unlock:无法存储记录:NT_STATUS_UNSUCCESSFUL
gfs2

CentOs 6.5 GFS2 DRBD SAMBA CTDB:g_lock_force_unlock:无法存储记录:NT_STATUS_UNSUCCESSFUL

我的 SAMBA 集群不可靠,我注意到从 Windows 桌面(在某些情况下工作正常但不可靠)在 Ubuntu 上我收到此错误(相同的错误在日志中不断重复): [root@smb1 ~]# smbpasswd -a root lib/dbwrap_ctdb.c:951 Error sending local control SCHEDULE_FOR_DELETION: NT_STATUS_OK, cstatus = -1 g_lock_force_unlock: Could not store record: NT_STATUS_UNSUCCESSFUL ...

Admin