我被这道家庭作业题难住了。老实说,我不知道它在说什么。
问题:您正在通过 40 公里的长距离链路传输 100 位数据包。我假设数据速率为 1 Mbps,链路上的传播延迟为 2 * 10^8 米/秒。
数据包从源到达目的地需要多长时间?
- .1 毫秒
- .3 毫秒
- .4 毫秒
- .2 毫秒
会是.4毫秒吗?
答案1
假设链接速度为C带宽b,单程时间电视传输一包s长度为:
size of packet / bandwidth + link distance / link speed
或者简而言之:
s / b + d / c
这个数学题,你自己可以算出来!
为什么这个公式会给出传输所需的时间?整个过程可以解释为:
- 第一部分是将所有比特推送到链路上所需的时间。链路具有一定的带宽(每秒可推送的比特数)。您将比特除以比特/秒,最终得到秒数。
- 第二部分是传输整个内容所需的时间。链接距离(单位为米)除以速度(单位为米/秒),结果同样是秒。
然后我们只需将两个组件相加即可得到整个时间。
笔记:该公式假设没有恒定的路由延迟(包括 IP 堆栈),并且链接中没有可变的排队延迟,您只需在更实际的计算中添加这些延迟即可。
答案2
传播延迟 = d/s = 40km/2x10^5km/s = 0.2ms
传输延迟 = 100bits/2^20bits/s = 0.09ms
总时间 = 传播延迟 + 传输延迟 = 0.2ms + 0.09ms == 0.3ms