我在 Linux Mint liveCD 上启动时创建了一个 zpool(所有 ZFS 软件包都已通过 apt 临时安装),并使用包含以下内容的命令行创建了一个 zpool,ashift=9
因为我的 ST4000NM0033 驱动器(每个驱动器 8 个)有 512B 扇区。还在 LiveCD 中在池上创建了一些 ZFS 文件系统
在仍在运行 liveCD 时,我可以通过运行来验证池是否使用了 ashift=9 zdb -e -C pool0 | grep ashift
。我必须使用这些-e -C pool0
选项,因为如果没有它们,我会收到cannot open /etc/zfs/zpool.cache
错误
但是,一旦我安装并重新启动到真正的操作系统,即 root 上的 ZFS,然后重新运行zdb | grep ashift
它,它会报告ashift=12
我也在 vdev 下使用 LUKS。每个 vdev 都有一个独立的标头和密钥文件,我使用 USB 密钥上的 grub/efi/boot 启动系统。
zpool 是 2x 条带化 4 驱动器 RAIDZ1 配置。
zpool详细信息:
zdb
以下是系统运行的结果
version: 5000
name: 'pool0'
state: 0
txg: 331399
pool_guid: 4878817387727202324
errata: 0
hostname: 'shop'
com.delphix:has_per_vdev_zaps
vdev_children: 1
vdev_tree:
type: 'root'
id: 0
guid: 4878817387727202324
children[0]:
type: 'raidz'
id: 0
guid: 4453362395566037229
nparity: 1
metaslab_array: 138
metaslab_shift: 36
ashift: 12
asize: 7996794994688
is_log: 0
create_txg: 4
com.delphix:vdev_zap_top: 129
children[0]:
type: 'disk'
id: 0
guid: 17425041855122083436
path: '/dev/mapper/luks_root_sda'
whole_disk: 0
DTL: 179
create_txg: 4
com.delphix:vdev_zap_leaf: 130
children[1]:
type: 'disk'
id: 1
guid: 14306620094487281535
path: '/dev/mapper/luks_root_sdb'
whole_disk: 0
DTL: 178
create_txg: 4
com.delphix:vdev_zap_leaf: 131
children[2]:
type: 'disk'
id: 2
guid: 16566898459604505385
path: '/dev/mapper/luks_root_sdc'
whole_disk: 0
DTL: 177
create_txg: 4
com.delphix:vdev_zap_leaf: 132
children[3]:
type: 'disk'
id: 3
guid: 542095292802891028
path: '/dev/mapper/luks_root_sdd'
whole_disk: 0
DTL: 176
create_txg: 4
com.delphix:vdev_zap_leaf: 133
children[4]:
type: 'disk'
id: 4
guid: 14142266371747430354
path: '/dev/mapper/luks_root_sde'
whole_disk: 0
DTL: 175
create_txg: 4
com.delphix:vdev_zap_leaf: 134
children[5]:
type: 'disk'
id: 5
guid: 9998698084287190219
path: '/dev/mapper/luks_root_sdf'
whole_disk: 0
DTL: 174
create_txg: 4
com.delphix:vdev_zap_leaf: 135
children[6]:
type: 'disk'
id: 6
guid: 9268711926727287907
path: '/dev/mapper/luks_root_sdg'
whole_disk: 0
DTL: 173
create_txg: 4
com.delphix:vdev_zap_leaf: 136
children[7]:
type: 'disk'
id: 7
guid: 16360862201213710466
path: '/dev/mapper/luks_root_sdh'
whole_disk: 0
DTL: 172
create_txg: 4
com.delphix:vdev_zap_leaf: 137
features_for_read:
com.delphix:hole_birth
com.delphix:embedded_data
更新:似乎ashift
直接在设备上检查值会显示预期ashift=9
值。不确定为什么上层值不同
zdb -l /dev/mapper/luks_root_sda
标签 0
version: 5000
name: 'pool0'
state: 0
txg: 2223
pool_guid: 13689528332972152746
errata: 0
hostname: 'shop'
top_guid: 8586701185874218688
guid: 11289841240384277392
vdev_children: 2
vdev_tree:
type: 'raidz'
id: 0
guid: 8586701185874218688
nparity: 1
metaslab_array: 142
metaslab_shift: 37
ashift: 9
asize: 15901962272768
is_log: 0
create_txg: 4
children[0]:
type: 'disk'
id: 0
guid: 11289841240384277392
path: '/dev/mapper/luks_root_sda'
whole_disk: 0
create_txg: 4
children[1]:
type: 'disk'
id: 1
guid: 7916996642850715828
path: '/dev/mapper/luks_root_sdb'
whole_disk: 0
create_txg: 4
children[2]:
type: 'disk'
id: 2
guid: 5366943858334839242
path: '/dev/mapper/luks_root_sdc'
whole_disk: 0
create_txg: 4
children[3]:
type: 'disk'
id: 3
guid: 3110382675821028014
path: '/dev/mapper/luks_root_sdd'
whole_disk: 0
create_txg: 4
features_for_read:
com.delphix:hole_birth
com.delphix:embedded_data
labels = 0 1 2 3
答案1
/etc/zfs/zpool.cache
这个问题是由于当我用新的 8x4TB 阵列替换 8x1TB 设置并将原始/
根复制回原位时复制到位的陈旧内容引起的。
似乎 ZFS 没有更新zpool.cache
并zdb -l
从该文件读取,而是zdb -l /dev/DEVICE | grep ashift
直接从 zdev 读取并显示预期的 ashift=9 值。
为了解决整个问题,我删除zpool.cache
并执行了zpool set cachefile=/etc/zfs/zpool.cache pool0