假设我收集了 2x24 小时内每秒的磁盘传输数据,即每 15 秒进行一次数据即时采样。如果我想使用这些数据来配置存储等,我可以/应该对样本应用哪些统计分析?
我是否应该只使用峰值(发生概率不到 1%)?我是否应该使用平均值?或者使用涉及平均值和偏差的公式?
答案1
您总是根据峰值来调整大小,除非它是那种在推送大量 IO 时能够承受高延迟的工作负载。这也是宽条带如此流行的部分原因 - 您可以将一堆工作负载组合在一起,并根据其总使用量的峰值来调整大小 - 不同部分将在不同时间达到峰值,因此您可以使用更便宜的磁盘来提供相同的容量。
宽条带化假设这是在某种集中存储上。如果它是本地的,当然你不能用这种方式聚集工作负载。
答案2
不幸的是,这个问题没有简单的答案。首先,考虑一下你的需求。你愿意/能够花多少钱?你需要多少冗余?你需要多少总存储量?你能容忍多少延迟?在你希望系统持续的时间内,你的系统会增长多少(包括大小和 iops 的增长)?你有时间维护和修剪数据以减小大小吗?
我能最接近地回答您的问题,就是注意,如果您无法在任何给定时间处理瞬时 iops,那么您只会增加延迟。如果延迟并不重要,那么根据您预计的平均 iops 增长来购买存储是一个不错的起点。
注意:冗余不是备份解决方案,因此也要做好备份计划。备份可以(应该)按时间和空间与实时数据隔离。