用什么工具可以下载网页上的所有图片?

用什么工具可以下载网页上的所有图片?

我想下载网页中的所有图片。该工具应该足够智能,可以检查页面源代码中的 css 和 javascript 文件来查找图片。

理想情况下,它还应复制文件夹层次结构,将图像保存在正确的文件夹中。例如,网页可能将一些菜单项图像存储在 images/menu/ 中,而将背景图像存储在 images/bg/ 中。

你知道有这样的工具吗?(最好是在 Windows 中,但 Linux 也可以)

非常感谢大家。

答案1

Windows 版 wGet 可以递归下载网站。它应该会保留您的文件夹结构。获取所有内容后,您可能需要删除 html 文件,但在我看来,它非常易于使用。

http://gnuwin32.sourceforge.net/packages/wget.htm

使用“-r”标志递归下载站点。例如wget -r http://example.com

以下是关于站点下载的简单教程。

http://linuxreviews.org/quicktips/wget/

答案2

如果您正在使用 Firefox,那么以下附加组件将会有所帮助:

保存图像

将当前标签页中的图像从缓存保存到指定位置,使用图像的原始文件名或您指定的文件名。可以选择保存的图像的大小、尺寸和类型,如果文件大小未知或发现重复文件,则可以使用选项。图像可以从当前选项卡、当前选项卡的左侧或右侧或所有选项卡保存。

全部击倒!

这是一个众所周知的附加组件,可能与全部击倒!反容器

AntiContainer 是 DownThemAll! 的扩展和框架,它允许用户下载通常隐藏在容器页面后面的资源。

例如,几乎所有所谓的“一键式”图片托管商(如 imagevenue)都使用此类容器页面。AntiContainer 使 DownThemAll! 能够下载实际图片,而不仅仅是页面。

答案3

另一种选择是使用带有过滤器的网络蜘蛛(例如 WebReaper)来仅下载 .png、.jpg、.gif 等。但是,有些网站会阻止网络蜘蛛,因此请注意。

相关内容