如何使用 wget 获取公共网站的图片?这不是一个很大的网站:它大约有 40 页,每页大约有 3 张图片。
我想避免:
- 手动下载图像
- 下载整个网站
有任何想法吗?
答案1
您可以使用 wget 并告诉它仅下载图像文件或使用http://www.downthemall.net/
从http://www.delorie.com/gnu/docs/wget/wget_31.html
您想要从 HTTP 服务器上的目录下载所有 GIF。您尝试过“wgethttp://www.server.com/dir/*.gif',但这种方法行不通,因为 HTTP 检索不支持通配符。在这种情况下,请使用:
wget -r -l1 --no-parent -A.gif http://www.server.com/dir/
更详细,但效果是一样的。-- -r -l1' means to retrieve recursively (see section 3. Recursive Retrieval), with maximum depth of 1.
no-parent' 意味着忽略对父目录的引用(参见 4.3 基于目录的限制),并且-A.gif' means to download only the GIF files.
-A "*.gif"' 也可以起作用。
答案2
我写了一个名为ifetch的实用程序,你可以尝试一下。 http://sourceforge.net/p/ifetch/wiki/Home/
答案3
在线图片批量下载 1.1.0(Firefox 插件)
答案4
看这。
第二个模板是网站所有图片。我想这就是你想要的吧?