递归保存网页

递归保存网页

是否可以递归保存网络上所有依赖于特定页面的页面?还是我总是需要逐个保存它们?

答案1

当我需要它的时候,我发现HT轨道有效、易于使用、选项也相当全面。

HTTrack 是一款免费(GPL、自由/免费软件)且易于使用的离线浏览器实用程序。

它允许您将万维网站点从 Internet 下载到本地目录,递归构建所有目录,将 HTML、图像和其他文件从服务器下载到您的计算机。HTTrack 会安排原始网站的相对链接结构。只需在浏览器中打开“镜像”网站的页面,您就可以逐个链接浏览该网站,就像您在线查看一样。HTTrack 还可以更新现有的镜像网站,并恢复中断的下载。HTTrack 完全可配置,并具有集成的帮助系统。

WinHTTrack 是 HTTrack 的 Windows 2000/XP/Vista/Seven 版本,而 WebHTTrack 是 Linux/Unix/BSD 版本。

在此处输入图片描述

答案2

wget -m http://www.example.com/

更多信息请访问man wget

-m --mirror Turn on options suitable for mirroring.
            This option turns on recursion and time-stamping,
            sets infinite recursion depth and keeps FTP directory listings.
            It is currently equivalent to -r -N -l inf --no-remove-listing. 

答案3

通过使用可以抓取页面的软件,这是可能的。我喜欢使用免费下载管理器的 HTML 蜘蛛,它可以下载页面,并且您可以指定要下载的深度级别。

答案4

是的,可以使用一些为此目的设计的工具,例如:Internet Download Manager(IDM)和离线浏览器。使用这些工具,您甚至可以下载整个网站进行离线探索,或者仅下载带有相关链接的一个页面。

相关内容