我希望从这个基于 piwigo CM 的网站下载原始尺寸的图片http://mermaid.pink/
允许下载单张图片,但这会花费很长时间。
是否有应用程序、扩展、脚本或其他任何可以完成此任务的东西?
答案1
您可以wget
如图所示使用这里:
使用 wget 下载整个网站
2008 年 9 月 5 日 Dashamir Hoxha 在 HOW-TOs 中撰写
如果您需要下载整个网站(可能是为了离线查看),wget 可以完成这项工作 — 例如:
$ wget \ --recursive \ --no-clobber \ --page-requisites \ --html-extension \ --convert-links \ --restrict-file-names=windows \ --domains website.org \ --no-parent \ www.website.org/tutorials/html/
此命令下载网站 http://www.website.org/tutorials/html/。
选项包括:
--recursive
:下载整个网站。--domains website.org
:不要点击 website.org 之外的链接。--no-parent
:不要关注 tutorials/html/ 目录之外的链接。--page-requisites
:获取组成页面的所有元素(图像,CSS等)。--html-extension
:以.html 扩展名保存文件。--convert-links
:转换链接,使得它们在本地离线工作。--restrict-file-names=windows
:修改文件名以便它们也能在 Windows 中使用。--no-clobber
:不覆盖任何现有文件(用于下载中断和恢复的情况)。
其中--page-requisites
&--recursive
可能是需要的,--convert-links
或者--no-clobber
可能是有用的。有关使用wget
run 的更多信息man wget
(或查看这里)。
答案2
这是我对你的这个问题的解决方案获取图像
首先创建文件夹来保存图像,然后进入该文件夹
#terminal
mkdir imagesFolder
cd imagesFolder/
# this one will take a long time but will download
# every single image related to this website
wget -r -nd -H -p -A '*.jpg','*.jpeg','*.png' -e robots=off http://mermaid.pink/
#I recomend to use this one better as the images in this site are all jpg
# And recursion level is set to 1
wget -r -l 1 -nd -H -p -A '*.jpg' -e robots=off http://mermaid.pink/
wget 参数解释:
-r|——递归:
- 开启递归检索。默认最大深度为 5。
-l 深度|--level=深度:
- 指定递归最大深度级别深度。
-nd|--无目录:
- 递归检索时不创建目录层次结构。启用此选项后,所有文件都将保存到当前目录,而不会发生破坏(如果名称出现多次,文件名将获得扩展名 .n)。
-H|——跨度主机:
- 执行递归检索时启用跨主机跨越。
-p|——页面要求:
- 此选项使 Wget 下载正确显示给定 HTML 页面所需的所有文件。其中包括内联图像、声音和引用的样式表...
-A|——接受:
- 指定要接受的文件名后缀或模式的逗号分隔列表。请注意,如果任何通配符,、?、[ 或 ] 出现在 acclist 的元素中,它将被视为模式,而不是后缀。在这种情况下,您必须将模式括在引号中,以防止 shell 将其展开,例如 -A ".mp3” 或 -A ‘*.mp3’。
-e|——执行:
- 执行命令,就好像它是 .wgetrc 的一部分一样。这样调用的命令将在 .wgetrc 中的命令之后执行,因此优先于它们。如果您需要指定多个 wgetrc 命令,请使用多个 -e 实例。
- 在这种情况下机器人=关闭是论点-e
有关 wget 的更多信息,请在终端中输入
man wget
或检查这
谢谢T04435