如何下载网站中的所有 HTML 页面

如何下载网站中的所有 HTML 页面

可能重复:
我如何下载整个网站?

假如有一个网站www.example.com,在不同的路径下有很多同名的静态页面。

有没有办法下载所有页面以供离线查看?

例如:

www.example.com/a/x.page
www.example.com/b/x,page
www.example.com/b/c/x,page

我想这样做是因为我无法在家上网,只能在公司办公室上网。

答案1

我用过http://www.httrack.com/它是一个出色的工具,它可以将动态网站下载到本地目录,以便您离线浏览。

答案2

如果你已经wget安装,则只需一行:

wget -mk -w 20 http://www.example.com/

GNU WGet

Windows 版 WGet

相关内容