我收到了一封电子邮件,里面有大约 200 张来自托管网站的图片下载链接。有什么方法可以批量下载所有图片,而不是点击每个下载链接?我猜这些图片是一张一张上传的。
答案1
如果你使用的是 *nix:
只需将 URL 复制并粘贴到文本文件中,这样每行上就有了。
http://example.com/image1.jpg
http://example.com/image2.jpg
另存为urls.txt
然后运行wget -i urls.txt
。wget 将检索文件中的每个 URL 到当前目录。
如果你使用的是 Windows:
得到Windows 版 wget来自 GnuWin32 项目(下载“完整包,除源代码外”并运行安装程序)。按照我上面的指示创建一个文本文件,并将其保存在新文件夹中urls.txt
。然后,按住 shift 并右键单击文件夹并选择“在此处打开命令提示符”。然后,在命令提示符中,运行与上面相同的命令(wget -i urls.txt
)。
答案2
您可以创建一个文件,使用以下命令下载文件wget
实际上它变成了一个脚本。
您可以创建一个列出 URL 的文本文件,并在每个 URL 前面加上wget
,例如:
wget -nd http://example1.com/image1.jpg
wget -nd http://example2.com/image2.png
该-nd
选项确保源网站的目录结构不会重复,并且所有文件都下载到当前工作目录中。