我有一个 ZFS 池,目前占用 100Gb。我将磁盘大小增加到 150Gb,但似乎无法让 ZFS 使用整个磁盘。
zpool set autoexpand=on
昨天我在另一台服务器上遇到了同样的问题,我通过、zpool export|import
和重启的组合zpool online -e
解决了这个问题。但无论我做什么,它都无法在当前服务器上工作
有问题的设备是 sdb,您可以从下面的 lsblk 中看到,该分区只有 100Gb,而可用的是 150Gb。
# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sdb 8:16 0 150G 0 disk
├─sdb1 8:17 0 100G 0 part
└─sdb9 8:25 0 8M 0 part
root@http-server-2:/home# parted -l
Model: Google PersistentDisk (scsi)
Disk /dev/sdb: 161GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:
Number Start End Size File system Name Flags
1 1049kB 107GB 107GB zfs zfs-01a59d03c9294944
9 107GB 107GB 8389kB
更新
更多数据:
zpool 列表
# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
lxd 13.9G 394K 13.9G - 0% 0% 1.00x ONLINE -
zdata 99.5G 82.7G 16.8G - 49% 83% 1.00x ONLINE -
zpool 状态
# zpool status
pool: lxd
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
lxd ONLINE 0 0 0
/var/lib/lxd/disks/lxd.img ONLINE 0 0 0
errors: No known data errors
pool: zdata
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
zdata ONLINE 0 0 0
sdb ONLINE 0 0 0
自动扩展
# zpool get autoexpand
NAME PROPERTY VALUE SOURCE
lxd autoexpand off default
zdata autoexpand on local
扩展尺寸
# zpool get expandsize zdata
NAME PROPERTY VALUE SOURCE
zdata expandsize - -
磁盘管理
# fdisk -l /dev/sdb
Disk /dev/sdb: 150 GiB, 161061273600 bytes, 314572800 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 0DA2A1D7-9A44-2E4C-856A-BB9EAEB283E0
Device Start End Sectors Size Type
/dev/sdb1 2048 209696767 209694720 100G Solaris /usr & Apple ZFS
/dev/sdb9 209696768 209713151 16384 8M Solaris reserved 1
我在 Google 云上,这是一个 ubuntu VM 实例,zfs 位于我通过“Google Cloud Platform - Compute Engine”连接到服务器的第二个磁盘上。
在这种情况下扩展 ZFS 分区的正确方法是什么?
解决方案
最终,我按照下面的 @ewwhite 回答成功了。为了完整起见,下面介绍如何删除额外的分区#9:
parted /dev/sdb rm 9
parted /dev/sdb resizepart 1 100%
然后一堆 zpool online -e => export pool => import pool。它成功了!
答案1
在 ZFS 中拥有分区 1/9 是正常的。如果 ZFS 认为它正在使用“整个磁盘”,则会创建分区。这是非多路径完整磁盘应被处理的方式。
之所以设置 8MB 缓冲空间,是为了允许在物理设置中使用略有不同的磁盘容量。使用该实用程序时无需担心这个问题zpool online -e
,因为它会在扩展期间重写分区表。
Disk /dev/nvme0n1: 960.2 GB, 960197124096 bytes, 1875385008 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: gpt
Disk identifier: E63B403D-D140-A84B-99EB-56DEDC8B91E4
# Start End Size Type Name
1 2048 1875367935 894.3G Solaris /usr & zfs-aaba011d48bf00f6
9 1875367936 1875384319 8M Solaris reserve
顺序应该是这样的:
- 重新扫描您的磁盘:类似于
echo 1 > /sys/block/sdb/device/rescan
。 partprobe
zpool online -e poolname sdb
- 重新启动或重新加载 ZFS 模块。
zpool list
- 审查的价值
EXPANDSZ
。 zpool online -e poolname sdb
如果此顺序不起作用,只需删除分区#9并重复上述操作。
答案2
尝试命令
sudo partprobe
我相信 partprobe 也能解决您的问题。https://linux.die.net/man/8/partprobe
您也可以随时在池上启用自动扩展,以避免需要执行 sudo zpool online -e my-pool sdb
zpool get autoexpand my-pool
sudo zpool set autoexpand=on my-pool
可能有用的完整命令
sudo partprobe -s
sudo partprobe
lsblk
zpool list
sudo zpool online -e <POOL NAME> <DEVICE NAME>
# zpool online -e mypoolname sdb
zpool list
答案3
@ewwhite 的答案有效(我也启用了自动扩展,不知道是否需要),但我需要进行一些调整:
- 首先,gparted 不允许我调整 zfs 分区的大小,所以我需要使用
sudo parted /dev/mydrive
,然后我输入print
列出分区,然后resizepart
以交互方式询问分区的 ID(参见打印结果)和分区的新结尾(默认为当前结尾)。 - 然后,在我的情况下
zfs online -e zfs_pool /dev/nvme0n1p4
不会做任何事情,也不会zfs online -e zfs_pool nvme0n1p4
……原因是驱动器名称不正确(不知道为什么我没有收到错误)。要查看驱动器的名称,您需要运行:
$ sudo zpool list -v zfs_pool
NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
zfs_pool 928G 887G 41.4G - 744G 69% 95% 1.00x ONLINE -
nvme-eui.ace42e002b011c1e2ee4ac0000000001-part4 1.64T 887G 41.4G - 744G 69% 95.5% - ONLINE
然后在他的列表中使用该名称,例如:
$ sudo zpool online -e zfs_pool nvme-eui.ace42e002b011c1e2ee4ac0000000001-part4
然后我就会得到预期的结果:
$ sudo zpool list
NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
zfs_pool 1.63T 887G 785G - - 38% 53% 1.00x ONLINE -