我想从网站下载 100 个文件,每个文件大小为 1GB,但文件大小未知,因为标头中没有设置内容长度。我的下载很慢而且不稳定。当下载在下载过程中崩溃几秒钟时,它会开始下载下一个文件,并使上一个文件不完整。
通常我使用wget -c
或curl -C
来恢复部分下载的文件。可以使用 wget 或 curl 将每个文件的内容长度设置为 1GB 吗?如果可能的话,wget 和curl 将不会在几秒钟的延迟后直接转到下一个文件。希望恢复下载也能像这样工作
答案1
未经测试:
wget --header="Content-Length: 1099511627776" ...
根据手册页:
As of Wget 1.10, this option can be used to override headers otherwise generated
automatically.