我遇到了几乎相同的问题,因此可以提供有关如何设置的更多详细信息:
2x 服务器副本 2 gluster 卷来自两个砖块。砖块 IMG-01:/images/storage/brick1 49152 0 Y
3497 砖块 IMG-02:/images/storage/brick1 49152 0
Y 3512 本地主机上的 NFS 服务器 N/A
N/ANN/A 本地主机上的自我修复守护进程
N/AN/AY 3490 IMG-02 上的 NFS 服务器
N/AN/ANN/A IMG-02 上的自我修复守护进程
N/AN/AY 3505 卷 gv1 的任务状态 ------------------------------------------------------------------------------ 没有活动的卷任务
为了实现 HA,我从 Gluster 客户端执行了以下操作:
IMG-01:/gv1 /mnt/glustervol1 glusterfs _netdev,backupvolfile-server=IMG-02,direct-io-mode=disable,log-level=WARNING,log-file=/var/log/gluster.log 0 0
Ubuntu 16.04 上的 Glusterfs 服务器版本为 3.7,而 ubuntu 14.0.4 上的客户端版本为 glusterfs 3.8。Gluster 服务器通过 infiniband 直接连接和 /30 子网进行通信;而客户端通过 1G 以太网接口进行连接。
现在,当其中一个服务器因某种原因(例如重新启动或服务不可用)停机时,客户端会保持连接,但无法读取或写入,最终客户端也会冻结。如果服务器彼此都是副本,并且如果
答案1
澄清和可能的解释可以回答上述问题:a. 如果您的文件(例如我的)是不可编辑的(即图像),那么 2x 副本存储实际上可以提供 HA...因此,如果主 glusterfs 存储节点发生故障,辅助节点将提供服务并接受写入...在主 gluster 服务器可用时,它会进行自我修复并投入使用。b. 我的情况是,潜在的罪魁祸首是应用程序在几天内将大量图像文件(即 +500,000 张图像)写入文件夹,而没有真正管理结构和层次结构...这最终导致 2x 服务器无法相互同步并最终破坏服务响应。通过修复目录存储和创建子目录,我们修复了它。