我们有一个卷“gvol0”,它分为两个节点(复制):server1 和 server2:
这是清理后的卷信息:
Volume Name: gvol0
Type: Replicate
Volume ID: 434237432743274327473247
Status: Started
Snapshot Count: 0
Number of Bricks: 1 x 2 = 2
Transport-type: tcp
Bricks:
Brick1: server1:/var/lib/gvol0/brick1
Brick2: server2:/var/lib/gvol0/brick2
Options Reconfigured:
nfs.rpc-auth-allow: x.x.x.*
nfs.export-volumes: on
nfs.addr-namelookup: off
auth.allow: x.x.x.*
transport.address-family: inet
performance.readdir-ahead: on
nfs.disable: off
然后将每个块安装在服务器上的以下安装点位置:/mnt/gluster/gvol0/
我们面临的问题如下:
在 server1 上,挂载点上有一个特定的文件夹,我们将其称为“_data”,它不显示任何子文件夹,也不显示其中的文件。但是,可以统计这些文件/文件夹,甚至编辑文件并成功写入磁盘:
File: ‘_data’
Size: 4096 Blocks: 8 IO Block: 131072 directory
Device: 27h/39d Inode: 10981725783047031592 Links: 35
Access: (2775/drwxrwsr-x) Uid: ( 48/ apache) Gid: (
1024/teamgroup)
Context: system_u:object_r:fusefs_t:s0
Access: 2017-06-13 15:42:18.653306032 +0000
Modify: 2017-06-13 15:42:22.461305492 +0000
Change: 2017-06-13 15:42:22.461305492 +0000
Birth: -
奇怪的是,这个问题在 server2 上的安装点上不存在,并且我能够成功地在 /var/lib/gvol0/brick1/_data/ 上的砖本身上列出 _data 内的文件夹和文件
所有卷都在运行,包括自我修复守护进程:
Status of volume: gvol0
Gluster process TCP Port RDMA Port Online Pid
------------------------------------------------------------------------------
Brick server1:/var/lib/gvol0/brick1 49156 0 Y 997
Brick server2:/var/lib/gvol0/brick2 49154 0 Y 1109
NFS Server on localhost 2049 0 Y 17085
Self-heal Daemon on localhost N/A N/A Y 17093
NFS Server on server 1 2049 0 Y 4971
Self-heal Daemon on server 2 N/A N/A Y 4979
Task Status of Volume gvol0
运行自我修复命令不会返回任何问题:
Brick server1:/var/lib/gvol0/brick1
Status: Connected
Number of entries: 0
Brick server2:/var/lib/gvol0/brick2
Status: Connected
Number of entries: 0
以前有人经历过这种情况吗?你能给我一些其他的信息吗?我在 /var/log/glusterfs/... 内的日志文件中看不到任何明显的内容
谢谢!