我经常需要从网页下载一组链接,而逐个点击所有链接非常低效。例如,现在我想下载关于这网页。有什么方法可以批量下载它们吗?我正在使用 Linux 和 Firefox,希望这些信息有用。
答案1
这行代码将从页面下载每个 pdf。
它快速而粗糙,可能可以优化(特别是因为我同时使用 curl 和 wget):
for file in $(curl https://ocw.mit.edu/courses/mathematics/18-102-introduction-to-functional-analysis-spring-2009/lecture-notes/ | grep .pdf | cut -d'"' -f2); do wget https://ocw.mit.edu/$file; done