我有一个问题,我想我想不出如何将所有图片链接放入一个列表,我之前问过这个问题,但它被标记为重复,以便在 OP 要求的地方发布下载所有图片。
我试过了wget -r -P /save/location -A jpeg,jpg http://www.domain.com
,但只能下载到电脑上。如何将所有图像的列表提取到文件中?
答案1
使用spider选项并将输出通过管道传输到grep以仅获取其中的链接
wget --spider --force-html -r -l2 "www.domain.com" 2>&1 | grep '^--' | awk '{ print $3 }' | grep '\.\(jpeg\|jpg\)$'
这将显示标准输出的所有链接,您将其定向到一个文件:
wget --spider --force-html -r -l2 "www.domain.com" 2>&1 | grep '^--' | awk '{ print $3 }' | grep '\.\(jpeg\|jpg\)$'>links.txt