0

我安装了一个 rook.io ceph 存储集群。在安装之前,我清理了以前的安装,如下所述:https ://rook.io/docs/rook/v1.7/ceph-teardown.html

新集群已正确配置,但是 ceph 在配置后立即不健康,并且卡住了。

  data:
pools:   1 pools, 128 pgs
objects: 0 objects, 0 B
usage:   20 MiB used, 15 TiB / 15 TiB avail
pgs:     100.000% pgs not active
         128 undersized+peered
[root@rook-ceph-tools-74df559676-scmzg /]# ceph osd df
ID  CLASS  WEIGHT   REWEIGHT  SIZE     RAW USE  DATA     OMAP  META     AVAIL    %USE  VAR   PGS  STATUS
 0    hdd  3.63869   1.00000  3.6 TiB  5.0 MiB  144 KiB   0 B  4.8 MiB  3.6 TiB     0  0.98    0      up
 1    hdd  3.63869   1.00000  3.6 TiB  5.4 MiB  144 KiB   0 B  5.2 MiB  3.6 TiB     0  1.07  128      up
 2    hdd  3.63869   1.00000  3.6 TiB  5.0 MiB  144 KiB   0 B  4.8 MiB  3.6 TiB     0  0.98    0      up
 3    hdd  3.63869   1.00000  3.6 TiB  4.9 MiB  144 KiB   0 B  4.8 MiB  3.6 TiB     0  0.97    0      up
                       TOTAL   15 TiB   20 MiB  576 KiB   0 B   20 MiB   15 TiB     0                   
MIN/MAX VAR: 0.97/1.07  STDDEV: 0
[root@rook-ceph-tools-74df559676-scmzg /]# ceph osd tree
ID  CLASS  WEIGHT    TYPE NAME                               STATUS  REWEIGHT  PRI-AFF
-1         14.55475  root default                                                     
-3         14.55475      host storage1-kube-domain-tld                           
 0    hdd   3.63869          osd.0                               up   1.00000  1.00000
 1    hdd   3.63869          osd.1                               up   1.00000  1.00000
 2    hdd   3.63869          osd.2                               up   1.00000  1.00000
 3    hdd   3.63869          osd.3                               up   1.00000  1.00000

有没有人可以解释出了什么问题以及如何解决问题?

4

1 回答 1

1

问题是 osds 在同一台主机上运行,​​并且故障域设置为主机。将故障域切换到 osd 可解决此问题。可以根据https://stackoverflow.com/a/63472905/3146709更改默认故障域

于 2021-11-20T20:22:52.327 回答