使用 wget 的网站图像链接列表

使用 wget 的网站图像链接列表

我有一个问题,我想我想不出如何将所有图片链接放入一个列表,我之前问过这个问题,但它被标记为重复,以便在 OP 要求的地方发布下载所有图片。

我试过了wget -r -P /save/location -A jpeg,jpg http://www.domain.com,但只能下载到电脑上。如何将所有图像的列表提取到文件中?

答案1

使用spider选项并将输出通过管道传输到grep以仅获取其中的链接

wget --spider --force-html -r -l2 "www.domain.com" 2>&1   | grep '^--' | awk '{ print $3 }'   | grep '\.\(jpeg\|jpg\)$'

这将显示标准输出的所有链接,您将其定向到一个文件:

wget --spider --force-html -r -l2 "www.domain.com" 2>&1   | grep '^--' | awk '{ print $3 }'   | grep '\.\(jpeg\|jpg\)$'>links.txt

相关内容