有没有模拟高延迟的方法?

有没有模拟高延迟的方法?

这是关于如何限制带宽的一个很好的答案

现在带宽不是我最关心的问题 - 延迟才是。

如果我的应用程序服务器与其数据库服务器之间相距数百公里,会发生什么情况?

我正在寻找一种模拟每个 IP 数据包的预期延迟的可能性。

答案1

您可以使用 来执行此操作netem。从他们的主页:

模拟广域网延迟

这是最简单的示例,它只是为所有从本地以太网发出的数据包添加固定量的延迟。

# tc qdisc add dev eth0 root netem delay 100ms

现在,对本地网络上的主机进行简单的 ping 测试应该会显示 100 毫秒的增加。延迟受内核时钟分辨率 (Hz) 的限制。在大多数 2.4 系统上,系统时钟以 100 Hz 运行,允许延迟以 10 毫秒为增量。在 2.6 上,该值是一个从 1000 到 100 Hz 的配置参数。

后面的示例只是更改参数而不重新加载 qdisc

真实的广域网表现出可变性,因此可以添加随机变化。

# tc qdisc change dev eth0 root netem delay 100ms 10ms

这会导致增加的延迟为 100 ± 10 ms。网络延迟变化不是纯粹随机的,因此要模拟也存在相关值。

# tc qdisc change dev eth0 root netem delay 100ms 10ms 25%

这会导致增加的延迟为 100 ± 10 ms,下一个随机元素取决于上一个随机元素的 25%。这不是真正的统计相关性,而是近似值。

延迟分布

通常,网络中的延迟是不均匀的。更常见的是使用正态分布之类的东西来描述延迟的变化。 netem 规则可以使用一个表来指定非均匀分布。

# tc qdisc change dev eth0 root netem delay 100ms 20ms distribution normal

实际的表(normal、pareto、paretonormal)作为 iproute2 编译的一部分生成并放置在 /usr/lib/tc 中;因此,通过一些努力,可以根据实验数据制作自己的分布。

相关内容