我正在尝试下载一个包含大量图片的我喜欢的网站,其大小约为 10 GB。
我正在使用 sitesucker 下载它,我注意到虽然我的下载速度为 10Mbps,但下载它需要大约两天的时间,而且它仍在运行。我的问题是,下载/镜像网站更多地与下载速度有关,还是与软件必须保存和编译所有链接的速度有关?
如果速度有更大的提升的话,我正在考虑切换到 wget;这样可行吗?
答案1
由于您是从另一台主机获取数据,因此您需要考虑您的带宽和主机带宽。如果网页服务器带宽充足,则下载速度应该比服务器较慢时更快。
此外,如果文件很多,也会使整个过程变得更长,因为在使用 wget 下载文件之间总会有一些小的停顿。