dd 命令中的缓存行为

dd 命令中的缓存行为

我正在执行一些dd输出并并行运行vmstat

没有直接写入(即通过缓存)

$ dd if=/dev/urandom of=somefile.txt bs=1M count=200 
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 1,31332 s, 160 MB/s



$ vmstat 1 1000
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
 r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa st
 0  0     64 2659604 383244 3596884    0    0     3    47   34   14 27  7 66  0  0
 1  0     64 2509432 383244 3746080    0    0     0     0 1005 2278  5 20 75  0  0
 0  0     64 2452560 383248 3807932    0    0     4 204880 1175 2321  4 12 75  9  0
 0  0     64 2453144 383248 3807548    0    0     0     0  814 2677  5  2 93  0  0
 1  0     64 2444868 383248 3814516    0    0     0   244  529 1746  4  2 94  0  0
 0  0     64 2445756 383248 3814516    0    0     0     0  495 1957  3  1 96  0  0

我发现它或多或少执行了一次批量写入

直接写入

$ dd if=/dev/urandom of=somefile.txt bs=1M count=200 oflag=direct
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 1,6902 s, 124 MB/s



$ vmstat 1 1000
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
 r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa st
 0  0     64 2623556 383248 3603572    0    0     3    47   35   14 27  7 66  0  0
 1  0     64 2613784 383248 3611220    0    0     0 88064 1001 2573  5 15 79  1  0
 0  0     64 2612236 383256 3611804    0    0     8 116736  912 2033  1 18 78  3  0
 4  0     64 2621076 383256 3604232    0    0     0    96 1086 3250  8  3 89  0  0

我的问题如下:

这种直写操作的碎片是如何产生的呢?确定文件应被分解为 88 和 116 MB 的 2 个块(而不是说分解为 50MB 的 4 个块)(当不通过缓存传递时)的(内核?)参数是什么?

oflag=sync如果我使用 the代替,结果会有所不同吗direct

相关内容