我正在寻求将一个 200+ GB 的档案上传到 Amazon Glacier — 单个.tgz
.
想知道是否有人有过这样的经历,以及在没有超时问题的情况下完成这项工作是否看起来很棒。一方面,200 GB 的数据量很大。另一方面,Glacier 似乎是为处理这种需求而构建的。
我打算使用 Pythonboto
库。有人有其他建议吗?
答案1
正如其他人所说,Glacier 能够处理 200GB 以上的数据。
(坦率地说,就大数据200GB 不算什么——我每个月都会定期移动这么大的备份。)
需要注意的两件事是评论中提到的上游连接限制,以及您需要随时取回这些数据(Glacier 的存储成本非常低,但检索成本非常高)。
如果您不会受到上述任何一种担忧的阻碍(以及对冰川书籍/文献没有发现您计划部署的任何其他故障点)您应该会没事。