我如何计算数据包需要多长时间才能到达目的地?

我如何计算数据包需要多长时间才能到达目的地?

我被这道家庭作业题难住了。老实说,我不知道它在说什么。

问题:您正在通过 40 公里的长距离链路传输 100 位数据包。我假设数据速率为 1 Mbps,链路上的传播延迟为 2 * 10^8 米/秒。
数据包从源到达目的地需要多长时间?

  1. .1 毫秒
  2. .3 毫秒
  3. .4 毫秒
  4. .2 毫秒

会是.4毫秒吗?

答案1

假设链接速度为C带宽b,单程时间电视传输一包s长度为:

size of packet / bandwidth + link distance / link speed

或者简而言之:

s / b + d / c

这个数学题,你自己可以算出来!

为什么这个公式会给出传输所需的时间?整个过程可以解释为:

  • 第一部分是将所有比特推送到链路上所需的时间。链路具有一定的带宽(每秒可推送的比特数)。您将比特除以比特/秒,最终得到秒数。
  • 第二部分是传输整个内容所需的时间。链接距离(单位为米)除以速度(单位为米/秒),结果同样是秒。

然后我们只需将两个组件相加即可得到整个时间。

笔记:该公式假设没有恒定的路由延​​迟(包括 IP 堆栈),并且链接中没有可变的排队延迟,您只需在更实际的计算中添加这些延迟即可。

答案2

传播延迟 = d/s = 40km/2x10^5km/s = 0.2ms

传输延迟 = 100bits/2^20bits/s = 0.09ms

总时间 = 传播延迟 + 传输延迟 = 0.2ms + 0.09ms == 0.3ms

相关内容