0

kubernetes-high-iops-on-slave 我在amazon-ec2上运行一个 kubernetes 集群,有1 个 master 和 2 个 slave,每个都有8GB RAM 和 2 个 vcpus。以下是我观察到的异常高的磁盘使用率,仅在两个从属服务器上运行了一些批处理作业约 40 分钟后。( kind : Job)每个从站上一次运行三个上述作业的实例。从站上的 ram 使用量是标称的,大约 3GB 并且低于 50% cpu。

工作描述:它从服务器下载一些图像,进行一些图像处理并将结果存储在 NFS 上(由两个从属共享。)(我将 NFS 卷安装在从属上,然后将路径用作 mountPath 卷k8s job description.我没有使用kubernetes提供的nfs选项)。这项工作根本没有明确地对本地卷进行任何读/写

正常运行大约40 分钟后,我注意到所有从属服务器上的磁盘使用率(iops 和带宽)都很高,并且在 8 GB内存中消耗了近7.8GB 的​​高 RAM ,最终迫使节点进入状态。主 Kubernetes 节点未配置为运行用户作业,主节点完全不受影响。Not Ready

我该如何解决?如果需要任何其他信息,请告诉我。

4

0 回答 0