问题标签 [horizontalpodautoscaler]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
kubernetes - 如何找到 pod 崩溃的原因?
有没有办法查看为什么 kubernetes pod 在重负载下以“craskLoopBackOff”状态失败?
我有一个永远不会启动的 HorizontalPodAutoscaler。在它的状态下,它总是显示低(低于 50%)cpu 和内存使用率。
在 pod 中跟踪应用程序日志也不会提供任何见解。
kubernetes - Kubernetes HorizontalPodAutoscaler,用于由使用 KubernetesPodOperator 的 Airflow DAG 生成的 pod
我有气流使用CeleryExecutor
部署在 k8s 集群中使用helm
. 我定义了工人的数量。我最初认为这是工人的最大数量,但看起来工人 pod 总是在运行。所以这变成了一个静态的工人数量。为了解决这组静态工作人员,我正在寻找使用HorizontalPodAutoScaler
. 好吧,我正在使用KubernetesPodOperator
这意味着工作人员不会自己做工作/任务,而是会为每个任务旋转一个新资源(Pod)。所以这对我来说成为一个问题,HorizontalPodAutoScaler
因为我需要扩展工作人员的数量,但由于不是工作人员在做这项工作,因此它将无法正确测量 CPU/内存使用情况以扩大/缩小规模。我认为HorizontalPodAutoScaler
可以用于气流运行KubernetesExecutor
,但不确定CeleryExecutor
. 基本上我需要的是HorizontalPodAutoScaler
根据将创建的 pod 的指标来实现KubernetesPodOperator
,然后增加/减少工作人员的数量。
那么我该如何使用HorizontalPodAutoScaler
或者是否有其他替代方法可以使工人规模动态化?
kubernetes - Kubernetes Horizontal Pod 自动伸缩和资源配额
资源配额是否考虑了 HPA(Horizontal pod autoscaler)创建的 pod?
如果新创建的 pod 的请求和限制高于配额,它们会被驱逐吗?
问候
kubernetes - AKS 上的 Kubernetes HPA 因错误“缺少 cpu 请求”而失败
我正在尝试为我的 AKS 群集设置 HPA。以下是 Kubernetes 清单文件:
以下是我的 HPA yaml 文件:
但是当 HPA 失败并出现错误“FailedGetResourceMetric”-“缺少 CPU 请求”时。
我还使用以下语句安装了 metrics-server(尽管不确定是否需要):
kubectl apply -f https://github.com/kubernetes-sigs/metrics-server/releases/download/v0.3.6/components.yaml
但是当我执行“kubectl describe hpa”时,我仍然得到以下输出:
我与“loginservicedapr”一起部署了另外 2 个服务。但是我还没有为这些服务编写 HPA。但是我在它们的 YAML 文件中也包含了这些服务的资源限制。如何使这个 HPA 工作?
kubernetes - 当 HPA 状态集缩减时 Pod 崩溃
如果终止 pod 之一在优雅终止之前突然崩溃,则从 HPA(对于 statefulset)执行缩减事件;pod 是否重新启动/重新调度,然后再次尝试正常终止/缩减。了解该行为很重要,因为在终止时有一个 preStop 挂钩实现(终止 pod 的数据恢复),并且当 HPA 缩减时发生突然终止时,这可能永远不会被调用。
问候,
巴鲁
kubernetes - 是否有已知的方法来确定自动缩放阈值?
是否有已知的方法/关键字/主题来解决如何确定自动缩放阈值?
下面以 K8s HPA 为例,我只知道我可以安装一些监控工具,然后通过肉眼查看图表上显示的内存使用情况,以确定合适的阈值 100Mi。但是为什么不设置99Mi,为什么不设置101Mi呢?我觉得这个方法太手动了。
由于我没有精通计算机科学,所以我想问
是否有解决此类问题的已知方法?
或者什么样的课程可以解决这个问题?
或者从学术文章中搜索的关键字是什么?
kubernetes - 如何在 Kubernetes 中实现 1 node = 1 pod
我在一个集群中有 5 个节点(测试)。我已将它们标记为以下内容:
节点:
- 命名空间=A
- 命名空间=A
- 命名空间=B
- 命名空间=B
- 命名空间=C
我应用了污点和容忍度,nodeAffinity 和 podAntiAffinity。我们的节点启用了自动缩放。但是,我们的节点并没有扩大,所有的 pod 都在 1 个节点中。我在这个链接Kubernetes 中读过:在集群中均匀分布副本,使用 podAntiAffinity、节点 Affinity、污点和容忍度并不能保证这个要求。我们的要求是,1 个 pod 应该均匀地部署在节点上,并且应该相应地扩展。
我错过了什么?
kubernetes - 水平 pod 自动缩放器无法在 minikube 部署中获取指标
这是一个未解决的问题:https ://github.com/kubernetes/minikube/issues/9370
重现步骤:
$ minikube start — extra-config=controller-manager.horizontal-pod-autoscaler-upscale-delay=1m — extra-config=controller-manager.horizontal-pod-autoscaler-downscale-delay=1m — extra-config=controller-manager.horizontal-pod-autoscaler-sync-period=10s — extra-config=controller-manager.horizontal-pod-autoscaler-downscale-stabilization=1m
$ minikube add-ons enable metrics-server
.yaml
使用资源请求和限制创建:
$ kubectl -n test-1 autoscale deployment orion --min=1 --max=5 --cpu-percent=50
失败命令的完整输出:
命令$ kubectl -n test-1 describe hpa orion
返回:
命令$ minikube addons list
返回:
正如您在命令输出中看到的那样,即使指标服务器似乎工作正常(hpa Orion 中的指标说:)resource cpu on pods (as a percentage of request): 0%
,当涉及到 Orion hpa 产生的事件时,关于指标的计算存在错误:
这个水平 pod 自动缩放器无法正常工作的原因是什么?
其他详情:
Minikube 版本:
Kubernetes 版本:
kubernetes - Kubernetes HPA 未按预期缩减
发生了什么:我已经用这些细节配置了一个 hpa:
我预期会发生什么:当我们加载一些负载时,Pod 扩展到 3 个,并且平均内存超过了预期的 400。现在平均内存已经回落到大约 300 并且 Pod 仍然没有缩小,即使它们已经低于目标几个小时了。
一天后:
我预计当内存低于 400 时 Pod 会缩小
环境:
- Kubernetes 版本(使用
kubectl version
):
- 操作系统(例如:)
cat /etc/os-release
:
- 内核(例如
uname -a
):x86_64 x86_64 x86_64 GNU/Linux
我真的很想知道这是为什么。我很乐意提供任何需要的信息。
谢谢!
kubernetes - Kubernetes 指标服务器不提供所有指标或扩展 HPA
按照此处的示例https://kubernetes.io/docs/tasks/run-application/horizontal -pod-autoscale-walkthrough/#autoscaling-on-metrics-not-related-to-kubernetes-objects ,我创建了安装的指标-server 并修改如下:
查询时会列出我的节点:
但是,HPA 目标仍然“未知”:
运行顶级节点有效,但顶级 pod 无效
顶部 pod 返回错误error: Metrics not available
:
这是在 Kubernetes 服务器版本v1.19.3
和指标服务器版本上0.3.6
来自 metrics-server 的日志