为什么没有下载整个网站?

为什么没有下载整个网站?

wiredhealthresources.net我尝试使用以下命令复制该网站:

wget -rpkl inf wiredhealthresources.net

但该命令只下载了 54 个文件!大多数页面都丢失了,例如/topics-cardiology.html,尽管链接到了/index.html

我做错了什么?为什么wget没有下载整个网站?

答案1

如果你查看页面源代码,你将看不到任何topics-cardiology.html链接,因为侧边栏是由 JavaScript 生成的。你需要使用 JavaScript 无头浏览器,例如卡斯珀做成一面完整的镜子。

答案2

我确信您不能使用该inf选项来修改深度,只能修改尝试或查询。您是否尝试过使用-m而不是-r-l?听起来您想镜像页面,这就是它的-m用途。

相关内容