我们正在进行一个项目,将我们的大部分基础设施迁移到 GCP,而我们的监控系统是该项目的主要组成部分。目前,perfdata 的存储系统是一个 6 节点 Carbon Storage 集群,每个节点将其底层物理主机的 IO 固定在 ~2000 写入 IOPS。
因此,我对移植此系统的基本要求是拥有一定数量的存储节点,这些节点可以容纳 16k 写入 IOPS、4k 读取 IOPS 并包含 600GB 的数据。根据文档GCE 磁盘可以处理的 IO 吞吐量将根据其大小进行扩展。
为了确定最经济的解决方案,我创建了以下电子表格:
| | $/GB | Write IOPS/GB | Read IOPS/GB | Size for Writes | Size for Reads | Required Size | Price |
|---------------|--------|---------------|--------------|-----------------|----------------|-----------------|---------|
| PD | $0.040 | 1.5 | 0.75 | 10666.7 | 8000.0 | 10666.7 | $426.67 |
| SSD PD | $0.170 | 30 | 30 | 533.3 | 200.0 | 600.0 | $102.00 |
| Local SSD | $0.218 | 186.7 | 266.7 | 85.7 | 22.5 | 600.0 | $130.80 |
| NVMe SSD | $0.218 | 240 | 453.3 | 66.7 | 13.2 | 600.0 | $130.80 |
| | Write | Read
| Required IOPS | 16000 | 6000
| Min Disk Size | 600 |
但我对以下几点还不太清楚:
- 列出的 IOPS/GB 真的是 1.5/30 而不是 1,500/30,000 或其他比例因子吗?
- 为什么标准 PD 写入 IOPS 高于读取 IOPS?
- 是否有地方列出 NVMe SSD 的实际价格,或者它是否被认为与本地 SSD 相同?[我假设是后者]
- 就计算和假设而言,这一切看起来合理吗?
提前致谢。
答案1
我将按照问题的顺序来回答:
- 是的,根据帮助中心的说法文章没有任何其他缩放因子
- 标准持久磁盘持续性能上限会随着卷大小的增加而增加,直至达到可用的最大性能。这些性能上限适用于持续的磁盘活动,而不是峰值 IO 速率。许多应用程序的 IO 要求都是突发性的,因此 Compute Engine 允许 IO 短时间突发超过记录上限,适用于小于 1 TB 的卷。在突发耗尽后,IO 速率将恢复到记录的上限。这种突发功能可让您根据其持续速率而不是峰值速率来选择卷。这可以为 IO 突发的工作负载节省大量成本,这也解释了此公式的结果IOPS * 传输大小(字节数)=每秒字节数(答案通常转换为兆字节/秒)
- 本地 SSD 可通过 SCSI 和 NVMe 接口使用,并且价钱两者是一样的。
- 您可以使用 Google Cloud Platform 定价计算器进行成本估算这里。