因此,我尝试下载私人 wiki 页面的整个域。我已将 cookie 保存在 cookies.txt 文件中,并将其与 wget 一起使用进行身份验证,如下所示:
wget --load-cookies=cookies.txt --recursive --no-parent --convert-links --backup-converted --adjust-extension --limit-rate=500k https://wiki-to-download
它继续下载整个 wiki 域。乍一看,它似乎成功了。我在浏览器中本地打开了主页 html 文件,但除了主页之外,几乎所有链接都相同:登录页面...
我猜它先对我进行了一次身份验证,允许下载主页,但随后在检索其余页面时却不保存我的凭据,迫使它为每个页面下载可怕的“需要登录的页面”。我该如何避免这种情况?换句话说,我如何确保每个文件都能正确下载,就像我一直登录一样?
答案1
第一页上可能还有一个注销链接,它的作用正是它所期望的。要避免这种情况,请使用 -R(例如 -R "*logout*"),如所述这里