自动驾驶仪(ceph/ceph)空间如何分配?

自动驾驶仪(ceph/ceph)空间如何分配?

我部署了5台机器,maas服务器,landscape服务器,还有node01,02,03。

每个节点都是相同的,8 个核心、32GB RAM、每台机器 3 个 1GB 的 HD(146、300、600GB 15k 驱动器)。maas 和 Landscape 均配备 72GB 驱动器。

Landscape 报告称所有节点的可用空间为 3TB,而区域报告称 ceph 中可用的空间为 2TB。Horizo​​n 中的默认空间显示卷和快照为 1000GB,备份为 1000GB。

它是否显示 2tb,因为数据分发和复制后,从 3tb 变为 2tb,相当于 raid5?

那么 2TB 是否与系统默认的卷和备份之间 50/50 的比例分配?

景观区域硬件列表

景观区域硬件概述

答案1

我认为,如果我对 CEPH 有更多了解,那么在提出这个问题时,我会回答这个问题。尽管我无法解释为什么这些默认值是 Horizo​​n 中的默认值。它们是生成的还是只是 openstack 的起点。

景观驱动器使用情况取自 ceph,其中已包含复制。

    cluster eabab000-231c-4edb-855c-dd30b1bab56d
     health HEALTH_OK
     monmap e2: 3 mons at {juju-machine-0-lxc-4=10.14.0.53:6789/0,juju-machine-1-lxc-0=10.14.0.62:6789/0,juju-machine-2-lxc-4=10.14.0.60:6789/0}
            election epoch 12, quorum 0,1,2 juju-machine-0-lxc-4,juju-machine-2-lxc-4,juju-machine-1-lxc-0
     osdmap e358: 13 osds: 13 up, 13 in
      pgmap v324244: 1091 pgs, 14 pools, **132 GB data**, 35396 objects
            **378 GB used**, 3636 GB / **4014 GB avail**
                1091 active+clean
  client io 1740 B/s wr, 0 op/s

如您所见,总共有 132GB 的数据分布在 14 个池中。在我的例子中,cinder 包含 99% 的使用数据。

ubuntu@juju-machine-0-lxc-4:~$ sudo ceph df
GLOBAL:
    SIZE      AVAIL     RAW USED     %RAW USED 
    4014G     3636G         378G          9.42 
POOLS:
    NAME                                         ID     USED     %USED     MAX AVAIL     OBJECTS 
    rbd                                          0         0         0         1126G           0 
    .rgw.buckets                                 1      1894         0         1126G           2 
    .rgw.root                                    2       848         0         1126G           3 
    .rgw.control                                 3         0         0         1126G           8 
    .rgw.gc                                      4         0         0         1126G          32 
    .rgw.buckets.index                           5         0         0         1126G           1 
    .rgw.buckets.extra                           6         0         0         1126G           0 
    .log                                         7         0         0         1126G           0 
    .intent-log.usage                            8         0         0         1126G           0 
    .users.users.email.users.swift.users.uid     9         0         0         1126G           0 
    glance                                       10     500M      0.01         1126G          68 
    .rgw                                         11      404         0         1126G           2 
    .users.uid                                   12      417         0         1126G           3 
    cinder                                       13     132G      3.30         1126G       35277 

132GB 是实际数据,但已使用 378GB。这是由于复制级别。

ubuntu@juju-machine-0-lxc-4:~$ sudo ceph osd dump | grep -i cinder
pool 13 'cinder' **replicated size 3** min_size 2 crush_ruleset 0 object_hash rjenkins pg_num 166 pgp_num 166 last_change 358 flags hashpspool stripe_width 0

我们的总空间仅通过 USED x Replication Level 计算得出。因此,Horizo​​n 显示正确的空间,即 378GB / 4TB 可用空间。每个 100GB 文件都计入 300GB 空间。

相关内容