与 mdadm 一起使用时 iostat 数字错误?

与 mdadm 一起使用时 iostat 数字错误?

请参阅以下 /dev/sdb1、/dev/sdc1、/dev/sdd1、/dev/sde1 的数字:

$ iostat -dxm && cat /proc/mdstat
Linux 3.5.0-17-generic (avarice)    12-12-29    _x86_64_    (2 CPU)

Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sda               4.29     3.97    5.48    6.55     0.25     0.08    55.17     0.42   34.63   63.87   10.18   4.55   5.47
sdb            2717.50     0.00   54.54    0.01    10.83     0.00   406.53     0.14    2.53    2.53    6.53   1.63   8.92
sdc            1390.51     0.00   11.67    0.01     5.48     0.00   960.60     0.04    3.00    3.00    5.47   1.57   1.83
sdd            1390.49     0.00   11.50    0.01     5.48     0.00   974.54     0.04    3.06    3.06    6.13   1.61   1.85
sde               0.10  1390.35    0.44   11.03     0.00     5.47   977.75     0.03    2.68    0.31    2.77   2.57   2.95
md0               0.00     0.00    0.05    0.00     0.00     0.00     8.00     0.00    0.00    0.00    0.00   0.00   0.00

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md0 : active raid5 sde1[4] sdd1[2] sdc1[1] sdb1[0]
      5860145664 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/3] [UUU_]
      [>....................]  recovery =  0.5% (10476048/1953381888) finish=501.1min speed=64609K/sec

RAID 重建以 64MB/s 的速度运行。iostat显示相关驱动器的读取/写入速度约为 5MB/s。iostat错了吗?

答案1

对我来说,这些数字看起来大致适合 RAID-5 重建。

是的,它只以 5Mb/s 的速度写入sde,但为了写入该数据,它需要先从其他驱动器读取大量数据,以比较和恢复丢失的驱动器数据。由于您的阵列是 RAID-5,我预计读取与写入的比率约为 3/4 读取和 1/4 写入。

当然,5MB/s 似乎有点低,但我不知道丢失的输出是否是瞬时的,而你只是在糟糕的时刻抓住了它。

相关内容