Linux 上从网站下载文件的工具

Linux 上从网站下载文件的工具

如何在 Linux 操作系统(例如 Ubuntu)中从网站下载文件(例如 mp3/pdf/doc)?

我知道 wget 是一个很好的工具,还有其他的吗?

附言:

很多下载工具,比如eMule,从下载速度上来说比wget要好,对吧?

答案1

wget足够坚固,几乎可以用于任何用途。你只需要知道如何使用它。

您可以编写自己的脚本,使其在 shell 环境中充当 DAP。例如,wget在后台运行多个实例将提高您的下载速率和速度...

wget http://wxyz.abc/def.pdf &

(注意“&”符号)等等。

如果您不局限于文本模式,您可以使用 FlashGet 和许多其他东西。

答案2

axel(本文发布时该网站已关闭 - 稍后可能会恢复)是一款不错的文件下载工具,可通过多个连接进行下载。对于任何大型文件,例如发行版 ISO,我都会尝试使用 进行下载axel

但是,根据用途,wget可能会更好 - 它有更多的命令行开关和针对不喜欢下载器的站点的对策,以及许多其他内容(man wget | nl报告 1288 行 -axel's手册页只有 97 行)。

相关内容