1

我大约 4 天前注意到了这一点,现在不知道该怎么办。问题如下:

我有一个 6 节点 3 监视器 ceph 集群,有 84 个 osds、72x7200rpm 旋转磁盘和 12xnvme ssds 用于日志记录。清理配置的每个值都是默认值。集群中的每个 pg 都是 active+clean,每个集群 stat 都是绿色的。然而,没有及时进行深度清洗的PG不断增加,目前为96。ceph -s 的输出:

  cluster:
    id:     xxxxxxxxxxxxxxxxx
    health: HEALTH_WARN
            1 large omap objects
            96 pgs not deep-scrubbed in time

  services:
    mon: 3 daemons, quorum mon1,mon2,mon3 (age 6h)
    mgr: mon2(active, since 2w), standbys: mon1
    mds: cephfs:1 {0=mon2=up:active} 2 up:standby
    osd: 84 osds: 84 up (since 4d), 84 in (since 3M)
    rgw: 3 daemons active (mon1, mon2, mon3)

  data:
    pools:   12 pools, 2006 pgs
    objects: 151.89M objects, 218 TiB
    usage:   479 TiB used, 340 TiB / 818 TiB avail
    pgs:     2006 active+clean

  io:
    client:   1.3 MiB/s rd, 14 MiB/s wr, 93 op/s rd, 259 op/s wr

我该如何解决这个问题?此外,ceph 健康详细信息输出显示此非深度清理 pg 警报于 1 月 25 日开始,但我之前没有注意到这一点。我注意到这一点的时间是一个 osd 宕机 30 秒然后起床的时候。可能与这个问题有关吗?它会自行解决吗?我应该篡改擦洗配置吗?例如,如果我将 osd_max_scrubs 从 1 增加到 2,我可能会在客户端面临多少性能损失?

4

3 回答 3

1

您可以将深度磨砂期设置为 2 周,以延长深度磨砂期。安装在

 osd_deep_scrub_interval = 604800

利用:

 osd_deep_scrub_interval = 1209600

Eblock 先生有一个好主意,可以手动强制一些 pgs 进行深度清理,以便在 2 周内将这些操作分散开来。

于 2021-02-17T22:10:39.290 回答
0

通常,集群会在集群上的低 I/O 间隔期间对自身进行深度清理。默认情况下,每个 PG 都必须每周进行一次深度清理。当然,如果 OSD 出现故障,它们就无法进行深度清理,这可能会导致一些延迟。你可以运行这样的东西来查看哪些 PG 在后面,以及它们是否都在同一个 OSD 上:

ceph pg dump pgs | awk '{print $1" "$23}' | column -t

如有必要,对输出进行排序,您可以对受影响的 PG 之一发出手动深度清理,以查看数量是否减少以及深度清理本身是否有效。

ceph pg deep-scrub <PG_ID>

另外请添加ceph osd pool ls detail以查看是否设置了任何标志。

于 2021-02-09T07:14:02.893 回答
0

您有 2 个选项:

  1. 增加深层磨砂的间隔时间。
  2. 使用独立脚本手动控制深度清理。

我编写了一个简单的 PHP 脚本,可以为我进行深度清理:https ://gist.github.com/ethaniel/5db696d9c78516308b235b0cb904e4ad

它列出了所有的 PG,选择 1 个在 2 周前完成了最后一次深度清理的 PG(脚本采用最旧的),检查 PG 所在的 OSD 是否没有被用于另一次清理(处于活动状态) +clean 状态),然后才开始对该 PG 进行深度清理。否则它会去寻找另一个PG。

我将 osd_max_scrubs 设置为 1(否则 OSD 守护进程会因为 Ceph 中的错误而开始崩溃),所以这个脚本可以很好地与常规调度程序配合使用——无论哪个先开始在 PG-OSD 上进行清理,都会获胜。

于 2021-11-27T03:48:50.553 回答