我正在使用 HHTrack 镜像一个站点,它运行了一段时间后停止了,日志中包含以下内容:
<snip>
Too many URLs, giving up..(>100000)
To avoid that: use #L option for more links (example: -#L1000000)
14:48:58 Info: Top index rebuilt (done)
这是否意味着它没有镜像所有页面?
如何继续镜像而不花费不必要的时间复制已镜像的文件?
答案1
增加 URL 限制后使用操作继续中断的下载/镜像。
对于命令行版本:
Action options:
w *mirror web sites (--mirror)
W mirror web sites, semi-automatic (asks questions) (--mirror-wizard)
g just get files (saved in the current directory) (--get-files)
i continue an interrupted mirror using the cache
Y mirror ALL links located in the first level pages (mirror links) (--mirrorlinks)
对于 GUI 版本: