我们正在HTTRACK
下载整个网站以供离线查看。
问题是,即使使用 4 级 ( -r4
) 下载整个网站,一些链接仍然无法工作。
例如如果你使用 httrack 来捕获网站:
http://advaitasharada.sringeri.net/display/bhashya/Gita
它只截取了其中的一部分,但右侧保留了链接。其他链接包含《薄伽梵歌》的其他章节,标有 #fragments。
http://advaitasharada.sringeri.net/display/bhashya/Gita#BG_C02(该链接仅在浏览器点击时有效)
- 为何无法
HTTRACK
下载所有链接?该怎么办? - 也
search
无法正常工作。它会指向网站的原始域名(需要互联网连接)。
答案1
该网站使用服务器端脚本,即服务器生成网页飞行中当发出请求时。HTTRack 只能下载静态网页,因此会错过动态生成的部分。