0

我有一个 OpenStack (Victoria) 部署,有 3 个控制器节点、40 个计算和 ceph 作为 cinder 的后端。

批量创建 100 个卷,大小为 30GB,只需不到一分钟。对相同的 100 个卷进行批量删除大约需要我们的一半,其中一些最终处于 error_deleting 状态。

Cinder 配置为 volume_clear=none。

cinder 和 ceph 是否需要这种卷删除的持续时间?是否有一些配置选项可用于加速卷删除并提高 cinder API 的稳定性/弹性?

此外,高度赞赏用于识别瓶颈的故障排除技巧。

[LE] 确定了 ceph 中的瓶颈。时间花在执行扫描图像对象的 rbd delete 的 ceph 中。从 OpenStack 的角度来看,延迟镜像删除能否成为加快删除速度的一种选择?启用延迟删除有哪些风险?在 Ceph 中加速取消阻止删除的任何其他选项?

4

0 回答 0