如何从网站下载所有文件?

如何从网站下载所有文件?

可能重复:
如何下载整个网站

有一个网站,上面有共享图片,但我知道其中一部分的网址。我想这个网站上有数百张图片,我想下载所有图片。

有什么建议 ?

答案1

我建议你试试 wget,即“非交互式下载器”。它是一个功能丰富的命令行文件/网站/任何下载实用程序。我用它轻松地将几个网站镜像(即完全下载)到我的硬盘上。不要因为它是一个“命令行”程序而对它不屑一顾,它非常易于使用。

您还没有提到您使用的是什么操作系统。如果是 *nix 类系统,您可能可以通过包管理器安装 wget。如果是 Windows,您可以在此处获取其 Windows 版本:

http://gnuwin32.sourceforge.net/packages/wget.htm

我认为这个 wget 命令应该可以为你做到这一点:

wget --page-requisites --convert-links --html-extension --restrict-file-names=windows  www-example-dot-com

您将我写的网站地址替换为 www-example-dot-com

如果你完全困惑的话:

在命令行中输入程序的名称(当然是 wget)以及选项列表(“参数”)。--page-requisites选项告诉它下载页面正确显示所需的所有内容,例如页面上的图像。--convert-links 可以离线浏览本地副本。--html-extension--restrict-file-names=windows有助于使内容在大多数计算机上都可以离线查看(简而言之)。

如果您想将整个网站下载(镜像)到您的硬盘,请查看--recursive--level options

我不会完整解释如何使用命令行,但如果你不知道:一旦你掌握了打开命令提示符然后更改目录,它就会变得非常容易。(诚实!)你当然可以寻找基于 GUI 的下载管理器或类似的东西,但它可能会要求你注册,不像 wget 是开源的。

答案2

有几个程序可以做到这一点。只要图像位于同一页上即可。这是我通过快速搜索找到的一个程序:

http://www.exisoftware.com/news/download-all-images-from-a-website.html

相关内容