我有 2 个DRBD
基于存储的集群。不知为何,我无法利用 13% 的底层磁盘空间。两个配置中的磁盘都是sda4
Server1:sda4
大小:859G,drbd0
尺寸:788G,drbd0
可用空间空磁盘:748G
服务器1:sda4
大小:880G,drbd0
尺寸:807G,drbd0
可用空间空磁盘:766G
资源配置:
$cat /etc/drbd.d/nfs.res
resource r0 {
device /dev/drbd0;
disk /dev/sda4;
meta-disk internal;
protocol C;
disk {
md-flushes no;
resync-rate 90M;
al-extents 3833;
c-plan-ahead 2;
c-fill-target 2M;
c-max-rate 100M;
c-min-rate 25M;
}
handlers {
fence-peer "/usr/lib/drbd/crm-fence-peer.9.sh";
after-resync-target "/usr/lib/drbd/crm-unfence-peer.9.sh";
pri-lost-after-sb "/usr/lib/drbd/notify-pri-lost-after-sb.sh";
}
net {
sndbuf-size 0;
max-buffers 8000;
max-epoch-size 8000;
after-sb-0pri discard-least-changes;
after-sb-1pri discard-secondary;
after-sb-2pri call-pri-lost-after-sb;
fencing resource-only;
}
on node1 {
address x.x.1.1:7790;
}
on node2 {
address x.x.1.2:7790;
}
}
答案1
我不太了解 DRBD,而且您在问题中也没有提供有关如何测量可用空间的详细信息,但类似的事情发生在 ext4 上,大多数发行版默认初始化时保留 5%:也许您的 DRBD 有类似的默认配置?
如果考虑 DRBD 的大小和可用空间,我不禁注意到缺失空间的数量大约为 5%......