iostat 对‘dm’设备显示了哪些不同的利用率?

iostat 对‘dm’设备显示了哪些不同的利用率?

今天早上,我将 M.2 驱动器安装到 Proxmox 主机中,并使用 监控磁盘iostat -x 1。为什么iostat显示dm-7利用率为 98%,而 M.2 LVM PV(nvme0n1p1)仅显示 6.8?

我预计,由于是dm-7主机 M.2 LVM 切片的符号链接,因此我将在和上看到相同的利用率nvme0n1*dm-7为什么事实并非如此?

更新2:我不确定这是否还是个问题。我正在bonnie++测试 M.2 性能,并注意到iostat在 bonnie 运行期间输出是一致的。也许我最初看到的内容与 RAM/缓存或 I/O 报告/计时的方式有关iostat。现在看起来没问题。但仍然很好奇为什么这两个设备到目前为止会关闭,所以这个问题没有解决。

Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
nvme0n1           0.00     0.00    0.00  348.00     0.00 89088.00   512.00   202.68  488.70    0.00  488.70   2.85  99.20
sda               0.00    60.00    0.00   12.00     0.00   288.00    48.00     0.00    0.00    0.00    0.00   0.00   0.00
dm-0              0.00     0.00    0.00   72.00     0.00   288.00     8.00     0.00    0.00    0.00    0.00   0.00   0.00
dm-1              0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
dm-2              0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
dm-3              0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
dm-4              0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
dm-6              0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
dm-7              0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
dm-8              0.00     0.00    0.00   41.00     0.00 83968.00  4096.00    26.30  546.54    0.00  546.54  24.39 100.00

iostat 输出:

Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
nvme0n1           0.00   133.00    0.00  292.00     0.00  6272.00    42.96     0.04    5.95    0.00    5.95   0.15   4.40
nvme0n1p1         0.00   133.00    0.00  240.00     0.00  6272.00    52.27     0.70    5.33    0.00    5.33   0.28   6.80
...
dm-6              0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
dm-7              0.00     0.00    0.00  367.00     0.00  6272.00    34.18     1.72    4.70    0.00    4.70   2.67  98.00

dm-7 是什么?

[root@myhost ~/bin]
# dir /dev/disk/by-id/ | grep dm-7
...
lrwxrwxrwx 1 root root  10 Sep 17 08:58 dm-name-nvme1-vm--100--disk--0 -> ../../dm-7

nvme1-vm-100-disk-0 是什么?

[root@myhost ~/bin]
# lvs | grep nvme1
  vm-100-disk-0                          nvme1 -wi-ao---- 20.00g

更新-添加@Arlion 的输出请求:

# lvs; pvs; vgs; ls -al /dev/mapper/; mount
  LV                               VG    Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  bonnie_test                      nvme1 -wi-ao---- 210.00g                                                    
  vm-100-disk-0                    nvme1 -wi-ao----  20.00g                                                    
  data                             pve   twi-aotz--   1.34t             1.32   1.03                            
  root                             pve   -wi-ao----  96.00g                                                    
  snap_vm-100-disk-1_b4_first_boot pve   Vri---tz-k  80.00g data                                               
  swap                             pve   -wi-ao----   8.00g                                                    
  vm-100-disk-1                    pve   Vwi-aotz--  80.00g data        21.43      


  PV             VG    Fmt  Attr PSize   PFree 
  /dev/nvme0n1p1 nvme1 lvm2 a--  238.47g  8.47g
  /dev/sda3      pve   lvm2 a--    1.46t 15.82g



  VG    #PV #LV #SN Attr   VSize   VFree 
  nvme1   1   2   0 wz--n- 238.47g  8.47g
  pve     1   5   0 wz--n-   1.46t 15.82g



total 0
drwxr-xr-x  2 root root     240 Sep 17 12:44 .
drwxr-xr-x 21 root root    4360 Sep 17 12:44 ..
crw-------  1 root root 10, 236 Sep 17 08:36 control
lrwxrwxrwx  1 root root       7 Sep 17 13:07 nvme1-bonnie_test -> ../dm-8
lrwxrwxrwx  1 root root       7 Sep 17 08:58 nvme1-vm--100--disk--0 -> ../dm-7
lrwxrwxrwx  1 root root       7 Sep 17 08:36 pve-data -> ../dm-5
lrwxrwxrwx  1 root root       7 Sep 17 08:36 pve-data_tdata -> ../dm-3
lrwxrwxrwx  1 root root       7 Sep 17 08:36 pve-data_tmeta -> ../dm-2
lrwxrwxrwx  1 root root       7 Sep 17 08:36 pve-data-tpool -> ../dm-4
lrwxrwxrwx  1 root root       7 Sep 17 08:36 pve-root -> ../dm-1
lrwxrwxrwx  1 root root       7 Sep 17 08:36 pve-swap -> ../dm-0
lrwxrwxrwx  1 root root       7 Sep 17 08:36 pve-vm--100--disk--1 -> ../dm-6



sysfs on /sys type sysfs (rw,nosuid,nodev,noexec,relatime)
proc on /proc type proc (rw,relatime)
udev on /dev type devtmpfs (rw,nosuid,relatime,size=32811264k,nr_inodes=8202816,mode=755)
devpts on /dev/pts type devpts (rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000)
tmpfs on /run type tmpfs (rw,nosuid,noexec,relatime,size=6566444k,mode=755)
/dev/mapper/pve-root on / type ext4 (rw,relatime,errors=remount-ro,data=ordered)
securityfs on /sys/kernel/security type securityfs (rw,nosuid,nodev,noexec,relatime)
tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev)
tmpfs on /run/lock type tmpfs (rw,nosuid,nodev,noexec,relatime,size=5120k)
tmpfs on /sys/fs/cgroup type tmpfs (ro,nosuid,nodev,noexec,mode=755)
cgroup on /sys/fs/cgroup/systemd type cgroup (rw,nosuid,nodev,noexec,relatime,xattr,release_agent=/lib/systemd/systemd-cgroups-agent,name=systemd)
pstore on /sys/fs/pstore type pstore (rw,nosuid,nodev,noexec,relatime)
cgroup on /sys/fs/cgroup/net_cls,net_prio type cgroup (rw,nosuid,nodev,noexec,relatime,net_cls,net_prio)
cgroup on /sys/fs/cgroup/cpuset type cgroup (rw,nosuid,nodev,noexec,relatime,cpuset)
cgroup on /sys/fs/cgroup/cpu,cpuacct type cgroup (rw,nosuid,nodev,noexec,relatime,cpu,cpuacct)
cgroup on /sys/fs/cgroup/perf_event type cgroup (rw,nosuid,nodev,noexec,relatime,perf_event)
cgroup on /sys/fs/cgroup/devices type cgroup (rw,nosuid,nodev,noexec,relatime,devices)
cgroup on /sys/fs/cgroup/memory type cgroup (rw,nosuid,nodev,noexec,relatime,memory)
cgroup on /sys/fs/cgroup/rdma type cgroup (rw,nosuid,nodev,noexec,relatime,rdma)
cgroup on /sys/fs/cgroup/hugetlb type cgroup (rw,nosuid,nodev,noexec,relatime,hugetlb)
cgroup on /sys/fs/cgroup/blkio type cgroup (rw,nosuid,nodev,noexec,relatime,blkio)
cgroup on /sys/fs/cgroup/pids type cgroup (rw,nosuid,nodev,noexec,relatime,pids)
cgroup on /sys/fs/cgroup/freezer type cgroup (rw,nosuid,nodev,noexec,relatime,freezer)
systemd-1 on /proc/sys/fs/binfmt_misc type autofs (rw,relatime,fd=27,pgrp=1,timeout=0,minproto=5,maxproto=5,direct,pipe_ino=28136)
debugfs on /sys/kernel/debug type debugfs (rw,relatime)
mqueue on /dev/mqueue type mqueue (rw,relatime)
hugetlbfs on /dev/hugepages type hugetlbfs (rw,relatime,pagesize=2M)
sunrpc on /run/rpc_pipefs type rpc_pipefs (rw,relatime)
configfs on /sys/kernel/config type configfs (rw,relatime)
fusectl on /sys/fs/fuse/connections type fusectl (rw,relatime)
lxcfs on /var/lib/lxcfs type fuse.lxcfs (rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other)
/dev/fuse on /etc/pve type fuse (rw,nosuid,nodev,relatime,user_id=0,group_id=0,default_permissions,allow_other)
tmpfs on /run/user/9418 type tmpfs (rw,nosuid,nodev,relatime,size=6566440k,mode=700,uid=9418,gid=56003)
/dev/mapper/nvme1-bonnie_test on /mnt/bonnie type ext4 (rw,relatime,data=ordered)
binfmt_misc on /proc/sys/fs/binfmt_misc type binfmt_misc (rw,relatime)

答案1

 LV                               VG    Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  vm-100-disk-0                    nvme1 -wi-ao----  20.00g                                                                                                  
  vm-100-disk-1                    pve   Vwi-aotz--  80.00g data        21.43  

lrwxrwxrwx  1 root root       7 Sep 17 08:58 nvme1-vm--100--disk--0 -> ../dm-7
lrwxrwxrwx  1 root root       7 Sep 17 08:36 pve-vm--100--disk--1 -> ../dm-6

PV             VG    Fmt  Attr PSize   PFree 
/dev/nvme0n1p1 nvme1 lvm2 a--  238.47g  8.47g
/dev/sda3      pve   lvm2 a--    1.46t 15.82g


  VG    #PV #LV #SN Attr   VSize   VFree 
  nvme1   1   2   0 wz--n- 238.47g  8.47g
  pve     1   5   0 wz--n-   1.46t 15.82g

您的虚拟机管理程序从两个不同的资源池提供两个不同的磁盘。dm-7 来自完全分配的驱动器 /dev/nvme0n1p1,而 dm-6 来自几乎没有分配的驱动器 pve。

执行 bonnie++ 时,您仅测试 nvme1 组驱动器。

我会做 iotop 并安装网络数据查看是否存在导致磁盘利用率达到 100% 的异常情况。这可能是因为磁盘利用率达到 100%,无法执行更多 io,因此非常简单。或者这背后还有另一个问题。

相关内容