从 Amazon S3 导出 20TB

从 Amazon S3 导出 20TB

最近,在公司被收购后,我继承了 20TB 的数据。这些文件目前存储在即将关闭的 Amazon S3 帐户中。

导出所有这些数据并将其本地存储在云端的最具成本效益的方法是什么?

我最初的想法是使用类似 Amazon Snowball 的东西给我发送数据的物理副本,将一半存储在新的 Amazon S3 Glacier 存储桶中以供不频繁访问,将较新的文件存储在其他地方。

有没有更经济有效的方法?

答案1

如果您需要从云端获取数据,Snowball 是一个不错的选择。

你可以复制数据到同一区域的另一个 S3 存储桶。应该有复制数据无需任何成本,只要您使用设置了 S3 网关的 AWS EC2 实例执行此操作即可。如果您从 AWS 之外的计算机或在没有 S3 网关的 EC2 上运行 S3 副本,它将通过互联网进行复制,并且会占用大量带宽。您可以在副本上设置存储类。

一旦数据进入新存储桶,请使用生命周期规则将存储类更改为冰川、深度存档等。

相关内容