如何使用 wget 获取公共网站的图像?

如何使用 wget 获取公共网站的图像?

如何使用 wget 获取公共网站的图片?这不是一个很大的网站:它大约有 40 页,每页大约有 3 张图片。

我想避免:

  1. 手动下载图像
  2. 下载整个网站

有任何想法吗?

答案1

您可以使用 wget 并告诉它仅下载图像文件或使用http://www.downthemall.net/

http://www.delorie.com/gnu/docs/wget/wget_31.html

您想要从 HTTP 服务器上的目录下载所有 GIF。您尝试过“wgethttp://www.server.com/dir/*.gif',但这种方法行不通,因为 HTTP 检索不支持通配符。在这种情况下,请使用:

wget -r -l1 --no-parent -A.gif http://www.server.com/dir/

更详细,但效果是一样的。-- -r -l1' means to retrieve recursively (see section 3. Recursive Retrieval), with maximum depth of 1.no-parent' 意味着忽略对父目录的引用(参见 4.3 基于目录的限制),并且-A.gif' means to download only the GIF files.-A "*.gif"' 也可以起作用。

答案2

我写了一个名为ifetch的实用程序,你可以尝试一下。 http://sourceforge.net/p/ifetch/wiki/Home/

答案3

在线图片批量下载 1.1.0(Firefox 插件)

答案4

第二个模板是网站所有图片。我想这就是你想要的吧?

相关内容