递归 wget,向每个找到的 URL 附加一些内容

递归 wget,向每个找到的 URL 附加一些内容

我的主要目标是轻松备份我的一堆 MediaWiki 页面的页面源。我有我想要下载的每个页面,列在我的用户名页面上(https://wiki.example.com/index.php?title=用户:用户名)目前我可以:

wget -r --level=1 https://wiki.example.com/index.php?title=User:username

这会下载我链接的每个页面的 MediaWiki 输出 HTML,但我更喜欢每个页面的源代码。

通过 Mediawiki,我们可以添加action=raw到 GET 请求中,例如https://wiki.example.com/index.php?title=用户:用户名&action=raw将获取 User: 用户名的来源。

因此,我希望 wget 的 -r 将“&action=raw”附加到它找到并下载的每个其他链接的 URL,但我不确定如何操作。其他帖子谈到这样做,wget -A '&action=raw'但是这个接受标志似乎并不能完成这项工作。

相关内容