可能重复:
如何下载整个网站
我经常遇到这样的网页,它们提供手册页或其他信息,只能通过包含指向各个章节或段落的链接的目录访问。通常,各个叶页只包含几行,因此遍历整个树非常麻烦。
我正在寻找一种工具,它允许我将起始页的链接引用的所有页面拉取并组合成一个连接的 html 文档,这样就可以保存该页面和/或线性滚动浏览所有子页面,而无需单击并返回 1000 次。这还允许打印整个集合以获取手册或一次性搜索它,等等。
有人知道有什么好工具可以实现这个吗?理想情况下,这样的工具会提供一些排除标准(例如忽略所有“后退”链接或每个页面上的帮助或主页链接等)。
答案1
你可以使用获得在镜像模式下:
C:\MySites\> wget -m http://mymanuals.com/manuals/foobar
会反映整体http://mymanuals.com/manuals/foobar地点。
我用过的另一个相当成功的方法是HT轨道它再次为您镜像一个网站,但带有一个漂亮的 GUI 前端。