从停止的 URL 开始继续下载文件:WGET

从停止的 URL 开始继续下载文件:WGET

我想使用下载文件获得。最大深度为 3。现在,我知道 URL 中的文件很有可能会被更新。有没有办法让这些更新/修改的文件成为唯一需要下载的文件?

例如,第 1 天:我将运行 Python 脚本,从特定站点下载所有文件。

第 2 天:我将运行相同的脚本,期望它仅下载所有更新的文件。

我需要添加什么参数才能做到这一点?

答案1

您可以使用-N( --timestamping) 选项。例如,wget -N www.google.com.

相关内容