答案1
我建议你试试 wget,即“非交互式下载器”。它是一个功能丰富的命令行文件/网站/任何下载实用程序。我用它轻松地将几个网站镜像(即完全下载)到我的硬盘上。不要因为它是一个“命令行”程序而对它不屑一顾,它非常易于使用。
您还没有提到您使用的是什么操作系统。如果是 *nix 类系统,您可能可以通过包管理器安装 wget。如果是 Windows,您可以在此处获取其 Windows 版本:
http://gnuwin32.sourceforge.net/packages/wget.htm
我认为这个 wget 命令应该可以为你做到这一点:
wget --page-requisites --convert-links --html-extension --restrict-file-names=windows www-example-dot-com
您将我写的网站地址替换为 www-example-dot-com
如果你完全困惑的话:
在命令行中输入程序的名称(当然是 wget)以及选项列表(“参数”)。--page-requisites
选项告诉它下载页面正确显示所需的所有内容,例如页面上的图像。--convert-links 可以离线浏览本地副本。--html-extension
并--restrict-file-names=windows
有助于使内容在大多数计算机上都可以离线查看(简而言之)。
如果您想将整个网站下载(镜像)到您的硬盘,请查看--recursive
和--level options
。
我不会完整解释如何使用命令行,但如果你不知道:一旦你掌握了打开命令提示符然后更改目录,它就会变得非常容易。(诚实!)你当然可以寻找基于 GUI 的下载管理器或类似的东西,但它可能会要求你注册,不像 wget 是开源的。
答案2
有几个程序可以做到这一点。只要图像位于同一页上即可。这是我通过快速搜索找到的一个程序:
http://www.exisoftware.com/news/download-all-images-from-a-website.html