有没有一种便携的方式来下载或缓存网站的所有页面以供离线查看?我明天要乘飞机去国外,我想缓存一些网页(特别是 Python 文档页面(http://docs.python.org/)以及 pyqt 参考(http://www.riverbankcomputing.co.uk/static/Docs/PyQt4/pyqt4ref.html)。
理想情况下,我想要一个 Firefox 插件或类似的东西,但只要我可以在 Linux 上运行它,任何东西都可以正常工作。
答案1
我用HT轨道。
它允许您从互联网下载万维网站点到本地目录,递归构建所有目录,将 HTML、图像和其他文件从服务器下载到您的计算机
答案2
我使用 wget 和这些选项来镜像网站以供离线使用
wget -cmkE -np http://example.com/a/section/i/like
在哪里
-m 打开镜像选项以在本地镜像站点
-c 如果我已经下载了某些页面,则继续之前的下载
-k 将绝对 href 转换为指向本地 href,方便离线查看
-E 确保文件下载后具有 .html 扩展名。
-np 仅下载 /a/section/i/ 下的对象,并不缓存整个站点。
例如,我想下载南方文档,但不想下载南方票等……
wget -cmkE -np http://south.aeracode.org/docs/index.html
我使用 Windows 并在 cygwin 上运行 wget,但也有一个本机 windows wget 端口。
虽然,对于你的情况,你可以从下载python离线文档python 文档部分
答案3
尝试http://www.downthemall.net/一个 Firefox 插件。我曾用它下载了 250 页 PDF,这些 PDF 被分成了 20 多个单独的文件。它非常强大。它有一个通配符/查询语法,可以让你精确地获取你想要的文件,而不会获取你不想要的无关文件。
答案4
您可以使用 wget 下载整个网站或网站的一部分。
wget -r http://docs.python.org/
查看 wget 手册以了解您可能想要传递的其他选项,例如限制带宽使用、控制递归深度、设置排除列表等。
离线浏览的另一种方法是使用缓存代理。韋沃夫具有许多便于离线浏览保留的功能,例如覆盖服务器指定的到期日期和递归预取功能。(我从拨号上网时代就开始使用 wwwoffle。)