我正在从磁盘顺序读取一个大文件,并尝试了解读取过程中的 iostat 输出。
- 文件大小:10 GB
- 读取缓冲区:4 KB
- 预读(/sys/block/sda/queue/read_ahead_kb):128 KB
iostat 输出如下
Device: rrqm/s wrqm/s r/s w/s rMB/s wMB/s avgrq-sz avgqu-sz await r_await w_await svctm %util
sda 0.00 0.00 833.00 14.00 103.88 0.05 251.30 6.07 5.69 2.33 205.71 1.18 100.00
计算 I/O 请求的平均大小 = (rMB/s 除以 r/s) 得出 ~ 128 KB,即预读值。这似乎表明,虽然 read 系统调用指定了 4KB 缓冲区,但实际的磁盘 I/O 是根据预读值进行的。
当我将预读值增加到 256KB 时,iostat 输出如下
Device: rrqm/s wrqm/s r/s w/s rMB/s wMB/s avgrq-sz avgqu-sz await r_await w_await svctm %util
sda 0.00 28.00 412.00 12.00 102.50 0.05 495.32 10.78 12.15 4.76 265.83 2.36 100.00
再次,平均 I/O 请求大小为 256 KB,与预读相匹配。
这种情况一直持续到我将预读值设置为 512 KB,而当我将预读值提高到 1024 KB 时,这种情况就不再发生了 - I/O 请求的平均大小仍然是 512 KB。将 max_sectors_kb(每个 I/O 请求的最大数据量)从默认的 512 KB 增加到 1024 KB 也无济于事。
为什么会发生这种情况 - 理想情况下,我希望尽可能地减少读取 IOPS,并在每个 I/O 请求中读取更多数据(每个请求大于 512 KB)。此外,在所有情况下,我的磁盘利用率都达到 100% - 我希望将读取速度限制在 50-60% 的磁盘利用率,同时获得良好的顺序吞吐量。简而言之,什么是针对顺序读取 I/O 的优化应用程序/内核设置。
答案1
您说您希望最小化读取 IOPS 并最大化每个 IO 请求的大小。但我怀疑您不会真正从中受益。通常我会关心最大化吞吐量同时最小化延迟,并为特定应用程序找到这两者之间的良好平衡。
请注意,当您从 128kB 预读变为 256kB 预读时,读取吞吐量实际上从 103.88MB/s 下降到 102.50MB/s。我预计这种趋势不会在预读大小更高时逆转。如果数据不是纯顺序的,更高的预读还会带来更多 IO 浪费的风险,这会降低有用 IO 的性能。
如果您感兴趣的话,512kB 的限制可能来自存储堆栈中的另一层,例如 SCSI 驱动程序、控制器固件或总线。
要限制 IO,您可以查看以下内容:如何限制每个进程的 I/O 到最大限度?
答案2
如果您正在从 LVM 卷顶部的文件系统读取,这似乎是预期的行为。我也在 LVM 邮件列表中写道,但是没人回复我。
我怀疑 LVM 代码内部管理最大 512 KB 的块/请求,因此将max_sectors_kb
参数增加到超过此硬限制不会产生任何效果。