我有一个 S3 存储桶,其中定期上传文件,其目录结构如下:
backup/
process/
想法是:我将文件上传到backup
,定期将新文件复制到process
由第三方服务处理的地方,由第三方服务读取和删除这些文件。
所以最终backup
会拥有所有已上传的文件,而process
只会拥有未经第三方服务处理的新上传的文件。
我怎样才能定期(并自动)将这些新文件从复制backup
到process
而不使用像 lambda 之类的东西?
我发现了 S3 复制功能,但它似乎只能将对象从一个存储桶复制到另一个存储桶。
是否存在某种事件不断读取目录,并且当创建新文件时将其复制到目录中process
?