如何通过 http 并行获取大文件?

如何通过 http 并行获取大文件?

问题:

由于 HTTP 支持在偏移处恢复,是否有任何工具(或 wget 或 curl 等命令的现有选项)可以启动多个线程来与不同文件偏移处的多个请求并行获取文件?这有助于单独限制每个套接字的性能。

我可以编写一个程序来执行此操作,但我想知道该工具是否已经存在。

背景:

最近想下载一个大的iso,但!...在服务器和我的互联网提供商之间的某个地方,传输速率被限制为 100 kb!然而,我注意到前 5 到 10 秒的吞吐量很高,达到数百兆位。所以我写了一个小的 bash 脚本来在几秒钟后重新启动:

while ! timeout 8 wget -c http://example.com/bigfile.iso; do true; done

(我希望这不是我的提供商……但也许是。请有人恢复网络中立性!)

相关内容