0

一段时间后,我们的一些集群出现问题,其中自动删除孤立资源停止工作。因此,如果我删除了一个部署,也没有删除副本集或 pod,或者如果我删除了一个副本集,则会创建一个新的,但之前的 pod 仍然存在。我什至无法更新一些部署,因为这将创建一个新的副本集+pod。

这是一个实际问题,因为我们正在创建和删除一些资源并依赖于自动子项删除。

问题是,销毁并再次创建一个集群可以让它完美地工作,我们无法追踪我们所做的导致问题的事情。

我尝试将主节点和代理节点都升级到更新版本并在代理节点中重新启动 kubelet,但这并没有解决任何问题。

谁能知道问题出在哪里,或者哪个组件负责级联删除孤儿资源?

这会发生在其他人身上吗?我们已经在具有不同 Kubernetes 版本的 3 个不同集群中发生了这种情况。

我已经在 K8s 文档中创建了测试部署对其进行了测试,然后将其删除:

kubectl apply -f https://k8s.io/examples/application/deployment.yaml

kubectl delete deployments.apps nginx-deployment

但是豆荚还在。

提前致谢

4

1 回答 1

1

The problem was caused by a faulty CRD / Admission Webhook. It could seem strange, but a wrong CRD or a faulty pod acting as webhook will make kube-controller-manager fail for all resources (at least in AKS). After removing the CRD's and the faulty webhook it started to work again. (The reason why the webhook was failing is another different thing)

于 2020-12-11T07:05:27.690 回答