AWS Cloudwatch 定价,指标到底是什么,以及可以有多少个数据点

AWS Cloudwatch 定价,指标到底是什么,以及可以有多少个数据点

免责声明:我打算在 AWS 开发者论坛上提出这个问题,但由于我刚刚创建了一个论坛帐户,所以我“可能几个小时内无法发布消息“到那时我肯定会睡着并忘记我明天要问这个问题......

我已经读过了CloudWatch 定价页面,搜索了 AWS 论坛,甚至在谷歌上进入了第 3 页......但我仍然不明白 CloudWatch 定价。

我的困惑来自于一些事情......

  1. 令我惊讶的是,我可以以每月 3.50 美元的价格运行一台服务器(t3a.nano),但监控该服务器却要花费 2.10 美元......
  2. AWS 的声明称,“指标定价按小时按比例计算,我们的计算假设客户每小时至少发送一次自定义指标“(这个解释对我来说相当“模糊”……抱歉)
  3. AWS 的自定义指标示例使用了一个完全可理解的假设,即我的应用程序“在 51,000 个 Amazon EC2 实例上运行……”

这就是我的问题的核心。如果我有一个自定义指标,假设我正在测量每小时运行一次、持续时间为 60 秒的 Python 脚本的最大内存使用量。所以我每月向 Cloudwatch 发送 730 个测量值.....

问题:(对于我可能遗漏的数据使用一般假设)

  1. 我认为这是一个单一指标?
  2. 730 个数据点真的要花费我 0.30 美元吗?
  3. 如果我每小时发送 60 个指标,总共 43,800 个数据点,仍然需要 0.30 美元吗?

答案1

根据自定义指标示例,定价为每实例每指标 0.3 美元。假设您有一个实例,则内存使用量示例为每月 0.3 美元。定价的另一部分,即 API 请求数量,与测量频率有关。示例显示:

51,000 instances * (43,200 minutes/5 minutes)

43,200 表示每月分钟数,5 分钟表示测量频率。在您的示例中,每小时发送 60 个指标,则为:

1 instance * (43,200 minutes/1 minute) = 43,200 requests.

由于您在免费套餐中每月有 1,000,000 个请求,因此 1 分钟频率每月总计仍仅为 0.3 美元。

相关内容