有没有办法下载整个网络服务器(以及可能引用的服务器)?

有没有办法下载整个网络服务器(以及可能引用的服务器)?

不仅仅是网站和内容,我想在本地重现脚本调用等。我尝试了 HTTracker 和 wget,但没有用。

以 donjon.bin.sh 为例

答案1

如果网站的某些部分是非静态的(例如由服务器端脚本或程序生成的),则无法使用 HTTP 下载整个网站。

通常情况下,您需要一个管理用户帐户,并且通常会使用不同的协议(如 FTP)来传输网站。此外,您还需要一些方法来提取所用数据库的内容。

答案2

如果您尝试下载并非 100% 客户端脚本的 Web 服务器,则会出现问题。如果网站使用任何类型的服务器端脚本(ruby、python、php、asp 等),那么您只能下载渲染的内容,而不能下载生成客户端内容的实际源文件。

您可能想要研究的搜索词是网络爬取。例如,Google 使用爬虫来缓存网站数据。很多时候,如果某个网站消失或关闭,您可以查看上次有数据时的 Google 缓存。这对于一些不再存在的旧内容网站很有用。

http://en.wikipedia.org/wiki/Web_crawler

相关内容