我部署了5台机器,maas服务器,landscape服务器,还有node01,02,03。
每个节点都是相同的,8 个核心、32GB RAM、每台机器 3 个 1GB 的 HD(146、300、600GB 15k 驱动器)。maas 和 Landscape 均配备 72GB 驱动器。
Landscape 报告称所有节点的可用空间为 3TB,而区域报告称 ceph 中可用的空间为 2TB。Horizon 中的默认空间显示卷和快照为 1000GB,备份为 1000GB。
它是否显示 2tb,因为数据分发和复制后,从 3tb 变为 2tb,相当于 raid5?
那么 2TB 是否与系统默认的卷和备份之间 50/50 的比例分配?
答案1
我认为,如果我对 CEPH 有更多了解,那么在提出这个问题时,我会回答这个问题。尽管我无法解释为什么这些默认值是 Horizon 中的默认值。它们是生成的还是只是 openstack 的起点。
景观驱动器使用情况取自 ceph,其中已包含复制。
cluster eabab000-231c-4edb-855c-dd30b1bab56d
health HEALTH_OK
monmap e2: 3 mons at {juju-machine-0-lxc-4=10.14.0.53:6789/0,juju-machine-1-lxc-0=10.14.0.62:6789/0,juju-machine-2-lxc-4=10.14.0.60:6789/0}
election epoch 12, quorum 0,1,2 juju-machine-0-lxc-4,juju-machine-2-lxc-4,juju-machine-1-lxc-0
osdmap e358: 13 osds: 13 up, 13 in
pgmap v324244: 1091 pgs, 14 pools, **132 GB data**, 35396 objects
**378 GB used**, 3636 GB / **4014 GB avail**
1091 active+clean
client io 1740 B/s wr, 0 op/s
如您所见,总共有 132GB 的数据分布在 14 个池中。在我的例子中,cinder 包含 99% 的使用数据。
ubuntu@juju-machine-0-lxc-4:~$ sudo ceph df
GLOBAL:
SIZE AVAIL RAW USED %RAW USED
4014G 3636G 378G 9.42
POOLS:
NAME ID USED %USED MAX AVAIL OBJECTS
rbd 0 0 0 1126G 0
.rgw.buckets 1 1894 0 1126G 2
.rgw.root 2 848 0 1126G 3
.rgw.control 3 0 0 1126G 8
.rgw.gc 4 0 0 1126G 32
.rgw.buckets.index 5 0 0 1126G 1
.rgw.buckets.extra 6 0 0 1126G 0
.log 7 0 0 1126G 0
.intent-log.usage 8 0 0 1126G 0
.users.users.email.users.swift.users.uid 9 0 0 1126G 0
glance 10 500M 0.01 1126G 68
.rgw 11 404 0 1126G 2
.users.uid 12 417 0 1126G 3
cinder 13 132G 3.30 1126G 35277
132GB 是实际数据,但已使用 378GB。这是由于复制级别。
ubuntu@juju-machine-0-lxc-4:~$ sudo ceph osd dump | grep -i cinder
pool 13 'cinder' **replicated size 3** min_size 2 crush_ruleset 0 object_hash rjenkins pg_num 166 pgp_num 166 last_change 358 flags hashpspool stripe_width 0
我们的总空间仅通过 USED x Replication Level 计算得出。因此,Horizon 显示正确的空间,即 378GB / 4TB 可用空间。每个 100GB 文件都计入 300GB 空间。