我正在运行 3 个 proxmox 3.4 节点,使用 NFS 共享存储和专用的 1GB 网络交换机。
root@lnxvt10:~# pveversion pve-manager/3.4-11/6502936f(运行内核:2.6.32-43-pve) root@lnxvt10:~# mount | grep 192.168.100.200 192.168.100.200:/mnt/volume0-zr2/proxmox1/ 上 /mnt/pve/freenas2-proxmox1 类型 nfs4(rw、noatime、vers=4、rsize=32768、wsize=32768、namlen=255、hard、proto=tcp、port=0、timeo=600、retrans=2、sec=sys、clientaddr=192.168.100.30、minorversion=0、local_lock=none、addr=192.168.100.200)
我的虚拟机基于 qcow2。
我遇到了非常慢的性能问题。虚拟机(Windows 和 Linux)非常慢,通常会挂在 iowait 上,但在监控 NAS 端的情况时,并没有出现预期的负载:以太网使用率约为 20/30 Mbit/s。
我不认为问题仅仅与网络有关,因为 iperf 的速度合理
客户端连接到 192.168.100.200,TCP 端口 5001 TCP 窗口大小:19.6 KByte(默认) ------------------------------------------------------------ [ 3]本地 192.168.100.30 端口 56835 与 192.168.100.200 端口 5001 连接 [ ID] 间隔传输带宽 [ 3] 0.0-30.0 秒 3.26 GBytes 933 Mbits/秒
在 NAS 文件系统上执行 dd 也可以获得更好的结果:
[root@freenas2] /mnt/volume0-zr2/proxmox1# dd if=/dev/zero of=file.dd bs=320M count=10 10+0 条记录 10+0 条记录 3355443200 字节传输耗时 16.386541 秒(204768244 字节/秒)
好的,瓶颈可能是 NFS/qcow2 组合,但可能产生这些糟糕的结果吗?
编辑
root@lnxvt10:~# pveperf CPU BOGOMIPS:105594.48 正则表达式/秒:1245255 高清大小:94.49 GB (/dev/mapper/pve-root) 缓冲读取:167.64 MB/秒 平均寻道时间:8.36 毫秒 FSYNC/秒:961.94 DNS EXT:58.04 毫秒 DNS INT:2002.71 毫秒(我的域名)
NAS 规格(hdparm 不可用):Freenas 9.3 ZFS ZRAID2 卷,带 6 个 SATA 磁盘 Hitachi Deskstar 7K3000