总结readahead
- RAID 10 阵列中不同 EBS PIOPS 卷的正确值是什么?
RAID 10 物理和逻辑卷本身又如何?调用
的块大小mdadm
和dd
调用的块大小又如何?
长话短说:
我正在使用 MongoDB Cloud(以前称为 MMS)来管理我的副本集。
我编写了以下脚本,启动一个实例(或多个)并为安装 MMS 自动化代理做好准备,包括设置 RAID 10、设置预读、禁用大页面、使用 xfs 格式化、设置 munin 等。
您可以在此处查看脚本 -https://gist.github.com/dorongutman/01d8daf0154621e4645d
大多数文档和社区信息都提到了单个 EBS 卷(通常是磁性的)的预读值。我没有找到 RAID 10 设置中使用的多个 EBS PIOPS 卷的建议预读值。还有使用 dd 时 RAID 创建的块大小和块大小。
我想创建一个RAID 10从4 EBS PIOPS每卷50GB 和 250 IOPS(一旦组建了 RAID,这将为我带来一个具有 500 IOPS 的 100GB 卷,对吗?),然后使用西弗斯在 RAID 卷上为 Mongo 数据文件夹。我有以下问题:
- 组成 RAID 10 的每个不同卷的 Readahead 值应该是多少?(/dev/xvdw 到 /dev/xvdz)
- RAID 10 设备本身的 Readahead 应该是什么?(物理卷和逻辑卷 - /dev/md0 和 /dev/vg0/data
- 由 mongodb cloud 创建的实例(在我对 MMS 的初始测试中)在 /etc/security/limits.d/99-mongodb-mms-automation-agent.conf 中具有以下值:
mongod - fsize unlimited mongod - cpu unlimited mongod - as unlimited mongod - nofile 64000 mongod - rss unlimited mongod - nproc 64000
上述配置是否也很好(4 个 EBS PIOPS 卷上的 RAID 10)?
我也希望得到您对该脚本的总体反馈 - 我是否遗漏了什么?是否可以更好地设置/配置某些内容?
我已经使用过很多次 MongoDB Cloud,虽然它提供了创建相关实例的选项 - 全部来自 mongodb 云仪表板内部 - 但它在您发布的生产最佳实践方面受到限制(RAID 10 阵列、私有子网、副本集配置等)。