如何在 Linux 上镜像网站?

如何在 Linux 上镜像网站?

有一个废弃的博客,随时可能消失,我想制作一个可浏览的副本。保存的页面应包含正确的页面链接、喜欢的图像和其他文件(如 pdf-s)。这是一个简单的网站,没有任何子域。

我尝试了 wget bug,但没有成功,链接没有指向正确保存的页面。

答案1

$ wget -k -p -r http://chubig.net/ ./

对我来说非常好用。-k转换链接(在下载结束时完成),-p获取所有图像、CSS 文件等,并-r递归下载(但保留在此域上)。

相关内容