![下载以下所有页面/*](https://linux22.com/image/1048278/%E4%B8%8B%E8%BD%BD%E4%BB%A5%E4%B8%8B%E6%89%80%E6%9C%89%E9%A1%B5%E9%9D%A2%2F*.png)
假设我有某些页面,例如www.abc.def/ghi/a.html
,是否有任何命令选项可以下载其下的所有页面www.abc.def./ghi
(即www.abc.def/ghi/a.html
,,www.abc.def/ghi/b.html
...)?
我已经安装了httrack
,webhttrack
但我不知道如何正确使用它们。
答案1
尝试wget
有限制的递归下载:
wget -r --include-directories=ghi --no-parent www.abc.def
答案2
找到了一个解决方案httrack
,这是最简单的解决方案。
httrack http://www.abc.def/ghi/ -O <output-folder>
关键是默认httrack
使用-D参数:
只能进入子目录
您可以输入 找到更多选项httrack --help
。
这里是一个有用的链接