什么原因导致 UDP 中客户端和服务器之间的数据包丢失率不同?

什么原因导致 UDP 中客户端和服务器之间的数据包丢失率不同?

如果我实施了可靠的 UDP 文件传输协议,并且我有一个文件,在传输时故意丢弃一定比例的数据包,那么为什么从客户端到服务器的数据包丢失率增加,而不是从服务器到客户端的数据包丢失率增加,传输时间的增加会更加明显?这可以解释为协议的结果吗?

以下是我两次独立实验的数据。我将最大数据包大小保持在 500 字节,将 1 兆字节文件反向数据包丢失保持在 5%:

服务器到客户端的丢失百分比变化:

1 MB 文件,500 b 段,客户端到服务器丢失 5%

1%:17253 毫秒

3%:3388 毫秒

5%:7252 毫秒

10%:6229 毫秒

11%:12346 毫秒

13%:11282 毫秒

15%:9252 毫秒

20%:11266 毫秒


客户端到服务器的丢失百分比各不相同

1 MB 文件,500 b 段,服务器到客户端丢失 5%

1%:4227 毫秒

3%:4334 毫秒

5%:3308 毫秒

10%:31350 毫秒

11%:36398 毫秒

13%:48436 毫秒

15%:65475 毫秒

20%:120515 毫秒

您可以清楚地看到客户端到服务器组的指数增长

相关内容