不仅仅是网站和内容,我想在本地重现脚本调用等。我尝试了 HTTracker 和 wget,但没有用。
以 donjon.bin.sh 为例
答案1
如果网站的某些部分是非静态的(例如由服务器端脚本或程序生成的),则无法使用 HTTP 下载整个网站。
通常情况下,您需要一个管理用户帐户,并且通常会使用不同的协议(如 FTP)来传输网站。此外,您还需要一些方法来提取所用数据库的内容。
答案2
如果您尝试下载并非 100% 客户端脚本的 Web 服务器,则会出现问题。如果网站使用任何类型的服务器端脚本(ruby、python、php、asp 等),那么您只能下载渲染的内容,而不能下载生成客户端内容的实际源文件。
您可能想要研究的搜索词是网络爬取。例如,Google 使用爬虫来缓存网站数据。很多时候,如果某个网站消失或关闭,您可以查看上次有数据时的 Google 缓存。这对于一些不再存在的旧内容网站很有用。