我喜欢 www.globalresearch.ca 这个网站,并且我已经复制了它。这个命令对我有用
wget -r -l14 -t2 -T60 -E -k --no-check-certificate --restrict-file-names="windows,nocontrol" --user-agent="Mozilla/4.0 (compatible; MSIE 6.0; Microsoft Windows NT 5.1)" http://www.globalresearch.ca/
但这需要30多个小时!制作网站的完整副本。它的大小超过 6 GB。
有没有更好或更快的方法,在 gnu/linux 中复制网站?我可以使用“wget”将网站复制一次,然后使用“wget”更新硬盘上的文件并仅添加新材料吗?我想让它转换链接,以便它们指向硬盘驱动器上的文件(-k)。
类似的命令是什么样的?或者有没有更好、更快的方法来制作网站的副本?我真的不想为了复制一个网站而等待 30 多个小时。
谢谢。
答案1
我曾经使用过这个名为 HTTrack 的简洁程序。您将需要使用没有间谍软件(适用于 Windows)的版本之一,例如 3.22-3 (如果您能找到的话)。如果您使用的是 Linux,间谍软件的风险可能会降低,并且最新版本可能适合您。