增加 ZFS 分区以使用整个磁盘

增加 ZFS 分区以使用整个磁盘

我有一个 ZFS 池,目前占用 100Gb。我将磁盘大小增加到 150Gb,但似乎无法让 ZFS 使用整个磁盘。

zpool set autoexpand=on昨天我在另一台服务器上遇到了同样的问题,我通过、zpool export|import和重启的组合zpool online -e解决了这个问题。但无论我做什么,它都无法在当前服务器上工作

有问题的设备是 sdb,您可以从下面的 lsblk 中看到,该分区只有 100Gb,而可用的是 150Gb。

# lsblk
NAME    MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sdb       8:16   0  150G  0 disk
├─sdb1    8:17   0  100G  0 part
└─sdb9    8:25   0    8M  0 part

root@http-server-2:/home# parted -l
Model: Google PersistentDisk (scsi)
Disk /dev/sdb: 161GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:

Number  Start   End    Size    File system  Name                  Flags
 1      1049kB  107GB  107GB   zfs          zfs-01a59d03c9294944
 9      107GB   107GB  8389kB

更新

更多数据:

zpool 列表

# zpool list
NAME    SIZE  ALLOC   FREE  EXPANDSZ   FRAG    CAP  DEDUP  HEALTH  ALTROOT
lxd    13.9G   394K  13.9G         -     0%     0%  1.00x  ONLINE  -
zdata  99.5G  82.7G  16.8G         -    49%    83%  1.00x  ONLINE  -

zpool 状态

# zpool status
  pool: lxd
 state: ONLINE
  scan: none requested
config:

        NAME                          STATE     READ WRITE CKSUM
        lxd                           ONLINE       0     0     0
          /var/lib/lxd/disks/lxd.img  ONLINE       0     0     0

errors: No known data errors

  pool: zdata
 state: ONLINE
  scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        zdata       ONLINE       0     0     0
          sdb       ONLINE       0     0     0

自动扩展

# zpool get autoexpand
NAME   PROPERTY    VALUE   SOURCE
lxd    autoexpand  off     default
zdata  autoexpand  on      local

扩展尺寸

# zpool get expandsize zdata
NAME   PROPERTY    VALUE     SOURCE
zdata  expandsize  -         -

磁盘管理

# fdisk -l /dev/sdb
Disk /dev/sdb: 150 GiB, 161061273600 bytes, 314572800 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 0DA2A1D7-9A44-2E4C-856A-BB9EAEB283E0

Device         Start       End   Sectors  Size Type
/dev/sdb1       2048 209696767 209694720  100G Solaris /usr & Apple ZFS
/dev/sdb9  209696768 209713151     16384    8M Solaris reserved 1

我在 Google 云上,这是一个 ubuntu VM 实例,zfs 位于我通过“Google Cloud Platform - Compute Engine”连接到服务器的第二个磁盘上。

在这种情况下扩展 ZFS 分区的正确方法是什么?

解决方案

最终,我按照下面的 @ewwhite 回答成功了。为了完整起见,下面介绍如何删除额外的分区#9:

parted /dev/sdb rm 9
parted /dev/sdb resizepart 1 100%

然后一堆 zpool online -e => export pool => import pool。它成功了!

答案1

在 ZFS 中拥有分区 1/9 是正常的。如果 ZFS 认为它正在使用“整个磁盘”,则会创建分区。这是非多路径完整磁盘应被处理的方式。

之所以设置 8MB 缓冲空间,是为了允许在物理设置中使用略有不同的磁盘容量。使用该实用程序时无需担心这个问题zpool online -e,因为它会在扩展期间重写分区表。

Disk /dev/nvme0n1: 960.2 GB, 960197124096 bytes, 1875385008 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: gpt
Disk identifier: E63B403D-D140-A84B-99EB-56DEDC8B91E4


#         Start          End    Size  Type            Name
 1         2048   1875367935  894.3G  Solaris /usr &  zfs-aaba011d48bf00f6
 9   1875367936   1875384319      8M  Solaris reserve

顺序应该是这样的:

  1. 重新扫描您的磁盘:类似于echo 1 > /sys/block/sdb/device/rescan
  2. partprobe
  3. zpool online -e poolname sdb
  4. 重新启动或重新加载 ZFS 模块。
  5. zpool list
  6. 审查的价值EXPANDSZ
  7. zpool online -e poolname sdb

如果此顺序不起作用,只需删除分区#9并重复上述操作。

答案2

尝试命令

sudo partprobe

我相信 partprobe 也能解决您的问题。https://linux.die.net/man/8/partprobe

您也可以随时在池上启用自动扩展,以避免需要执行 sudo zpool online -e my-pool sdb

zpool get autoexpand my-pool
sudo zpool set autoexpand=on my-pool

可能有用的完整命令

sudo partprobe -s
sudo partprobe
lsblk
zpool list
sudo zpool online -e <POOL NAME> <DEVICE NAME>
# zpool online -e mypoolname sdb
zpool list

答案3

@ewwhite 的答案有效(我也启用了自动扩展,不知道是否需要),但我需要进行一些调整:

  • 首先,gparted 不允许我调整 zfs 分区的大小,所以我需要使用sudo parted /dev/mydrive,然后我输入print列出分区,然后resizepart以交互方式询问分区的 ID(参见打印结果)和分区的新结尾(默认为当前结尾)。
  • 然后,在我的情况下zfs online -e zfs_pool /dev/nvme0n1p4不会做任何事情,也不会zfs online -e zfs_pool nvme0n1p4……原因是驱动器名称不正确(不知道为什么我没有收到错误)。要查看驱动器的名称,您需要运行:
$ sudo zpool list -v zfs_pool
NAME                                                SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
zfs_pool                                            928G   887G  41.4G        -      744G    69%    95%  1.00x    ONLINE  -
  nvme-eui.ace42e002b011c1e2ee4ac0000000001-part4  1.64T   887G  41.4G        -      744G    69%  95.5%      -    ONLINE

然后在他的列表中使用该名称,例如:

$ sudo zpool online -e zfs_pool nvme-eui.ace42e002b011c1e2ee4ac0000000001-part4

然后我就会得到预期的结果:

$ sudo zpool list
NAME       SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
zfs_pool  1.63T   887G   785G        -         -    38%    53%  1.00x    ONLINE  -

相关内容