问题标签 [kubernetes-rook]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
kubernetes - CephFS 无法附加或挂载卷:unmounted volumes=[image-store]
我无法在 cephfs 上启动和运行我的 Kube 注册表。我正在使用 rook 来设置这个集群。如您所见,我无法附加该卷。知道什么会导致这个问题吗?任何帮助表示赞赏。
kube-registry.yaml
Storagelas.yaml
kubectl 描述 pod --namespace=kube-system kube-registry-58659ff99b-j2b4d
ceph 配置程序日志,我重新启动了我的集群,所以名称会不同但输出是相同的
linux - 在单个节点上创建 rook-ceph 集群时帮助进行故障排除
我知道您不应该在单个节点上创建 ceph 集群。但这只是一个小型私人项目,因此我没有资源或需要真正的集群。
但我想建立一个集群,但我遇到了一些问题。目前我的集群已关闭,并且出现以下健康问题。
和
ceph 版本 15.2.3 (d289bbdec69ed7c1f516e0a093594580a76b78d0) 章鱼(稳定)
客户端版本:version.Info{Major:"1", Minor:"18", GitVersion:"v1.18.6", GitCommit:"dff82dc0de47299ab66c83c626e08b245ab19037", GitTreeState:"clean", BuildDate:"2020-07-15T16:58: 53Z”,GoVersion:“go1.13.9”,编译器:“gc”,平台:“linux/amd64”}
服务器版本:version.Info{Major:"1", Minor:"18", GitVersion:"v1.18.6", GitCommit:"dff82dc0de47299ab66c83c626e08b245ab19037", GitTreeState:"clean", BuildDate:"2020-07-15T16:51: 04Z”,GoVersion:“go1.13.9”,编译器:“gc”,平台:“linux/amd64”}
kubeadm 版本:&version.Info{Major:"1", Minor:"18", GitVersion:"v1.18.6", GitCommit:"dff82dc0de47299ab66c83c626e08b245ab19037", GitTreeState:"clean", BuildDate:"2020-07-15T16:56: 34Z”,GoVersion:“go1.13.9”,编译器:“gc”,平台:“linux/amd64”}
如果有人知道从哪里开始或如何解决我的问题,请帮助!
kubernetes - RookIO AttachVolume.Attach 卷失败
我有 Kubernetes 1.18 和 rookio 设置,这个 pod 运行了一段时间。Ready
由于某种原因,其中一个节点失去了状态。我重新启动了节点,现在它处于Ready
状态。
但是 Pod 停留在ContainerCreating
状态上。它正在等待安装 rookio PVC
。
吊舱状态
豆荚事件
PVC 附加状态设置为false
我尝试将 pod 移动到不同的节点,仍然是同样的问题。
PV和PVC状态
如何解决这个挂载问题?
谢谢
ceph - pvc 卡在等待创建卷的等待中,无论是通过外部配置程序“rook-ceph.rbd.csi.ceph.com”还是手动创建
我使用 rook 构建了一个 ceph 集群。但是我的 pvc 卡在了待处理状态。当我使用 kubectl describe pvc 时,我发现了来自 persistentvolume-controller 的事件:
我所有的 pod 都处于运行状态:
这里是kubectl logs -n rook-ceph csi-cephfsplugin-provisioner-c68f789b8-dt4jf csi-provisioner
这是工具箱容器中的 ceph 状态:
我想是因为集群的health是health_err,但是我不知道怎么解决……我目前使用raw partitions来构建ceph集群:一个节点上的一个partition,另一个node上的两个partition。
我发现重启几次的pod很少,所以我检查了他们的日志。至于csi-rbdplugin-provisioner pod,在csi-resizer,csi attacher和csi-snapshotter容器中存在相同的错误:
,以及 csi-snapshotter 中的重复错误:
至于mgr pod,有一条重复记录:
mon pod 的名称是 at、av 和 aw 而不是 a、b 和 c 也很奇怪。似乎 mon pod 被删除和创建了好几次,但我不知道为什么。
感谢您的任何建议。
kubernetes - 启用 Istio sidecar 后,Rook Ceph pod 无法正常启动
启用 istio sidecar 后,我们在 Kubernetes 中部署 rook-ceph 时遇到问题。问题是 OSD 没有出现,因为 crashcollector 没有正确初始化。如下图卡住了。
当我们在这个 pod 上执行 kubectl describe 时,我们会遇到以下问题:
还注意到没有创建秘密“rook-ceph-crash-collector-keyring”。
经过大量调试后,注意到“mon” pod 无法通过服务端点访问。但所有其他通信,如 Kubernetes API、其他命名空间中的其他服务等都运行良好。
当我们执行到“mon”pod 并执行 curl 时,如果我们使用它连接的主机名。
但使用服务名称不起作用
在 rook-ceph-operator 日志中也注意到,有一些潜在的线索表明没有让 mons 进入 quorum。
看起来 mons 不再可以通过服务端点访问,这使得整个初始化过程卡住了。
以下是在 rook-ceph 命名空间下运行的服务。
其他注意事项: Wee 使用所有最新版本的 istio、rook-ceph 等。集群是使用 Kubespray 创建的,在 Ubuntu bionic 上运行,具有 3 个节点。使用印花布。
如果您需要更多详细信息,请告诉我们。提前致谢。
kubernetes - Rook NFS Kubernetes RWX 挂载引发过时文件句柄错误
我们正在使用 Rook NFS 操作员和供应商将 RWX 卷安装到 kubernetes 上的多个气流工作人员。
但是,我们经常看到陈旧的文件句柄错误。每次看到此错误时,我们都必须重新启动 rook nfs 操作员、供应商和 pod 以及气流 pod。这个问题的任何永久修复?
kubernetes - 在 kubernetes 集群中安装 rook-ceph 后显示 OSD 0
我已经使用 3 个 VPS 设置了 3 个节点 kubernetes 并安装了 rook/ceph。
当我跑步时
我得到以下结果
我试过了
结果是
ceph osd status
没有结果
这是我使用的yaml文件
当我使用以下命令时
结果是
我的磁盘分区
我在这里做错了什么?
kubernetes - 无法使用 StorageClass“rook-cephfs”配置卷:rpc 错误:代码 = 已中止 desc = 具有给定卷 ID pvc- 的操作已存在
我正在使用 helm chart 部署应用程序。每当我部署图表时,我都面临 StorageClass rook-ceph 的问题,因为未创建 pvc,所以我的 pod 处于挂起状态。pvc 的日志是
kubernetes - 当没有更多容量时,rook-ceph 也提供 PV
我在 Kubernetes 中使用 rook-ceph。我部署了 rook-ceph-operator 和 rook-ceph-cluster Helm 图表。
我有 5 个工作节点,每个节点有 2 个 OSD。每个 OSD 有 100GB。所以总的来说,我有 5*200GB = 1TB 的原始存储。在 CephBlockPool 我设置replicated=3 failureDomain=host
.
我创建了一个带有 PVC 的 POD,它要求 500Gi 并且它可以工作。然后我可以创建更多 PVC > 500Gi 的 POD,它也可以工作。基本上我可以创建数百个 PVC,我有数百个 PV Bounded,但 TOTAL 空间超过 1TB,这是最大值。
我期待什么?如果我创建 PV,并且它们超过 1TB,则不应创建它们。我不想使用精简配置。
最后一件事,我的真实存储应该是 1TB/3,因为我有一个 3 的副本。
我尝试使用ResourceQuotas
withrequests.storage
并且它有效,但问题是它适用于每个命名空间。而且我有很多命名空间。我需要将 PCV 请求限制为所有集群。
我的问题是:如何限制 k8s 中的存储请求以避免请求超过所有集群的最大存储容量?
ceph - Rook Ceph 配置问题
尝试创建 PVC 时遇到问题。似乎供应商无法创建空间。
下面是我的 PVC yaml
我使用 ./rook/cluster/examples/kubernetes/ceph/csi/rbd/storageclass.yaml 来创建我的存储类。我很困惑这是哪里出错了。
我在我的 ceph 集群中发现的另一件奇怪的事情是我的 pgs 似乎卡在了尺寸不足的地方
我确实有 OSD