问题标签 [argo-workflows]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
amazon-web-services - EKS/Kubernetes 或 docker 中的容器是否有任何默认 RAM 限制?
我一直在运行一个应该使用最大 64gb RAM 的巨大进程,在它尝试分配超过 30gb RAM 后,它会被内核杀死 OOM,并出现以下错误:
重要的是要注意它是由 argo-events 实例化的 argo 工作流。
然后在查看 grafana 中的 pod 内存使用情况后,我可以看到它没有超过 30gb 阈值:
此外,在这个节点中只有一个 pod 运行,它只为运行这个进程而旋转(除了 Prometheus 和 Loki 守护程序集)
节点导出器图:
然后很明显,pod 仍然可以使用大量资源,但这让我觉得某处有 30gb 的限制,它可能在 os、docker 或 kubernetes kubelet 上
那么在 EKS 1.15 中是否有 docker 或 kubernetes 或更具体的默认内存分配限制?
如果没有,这里有什么问题,我该如何进一步调试?(注意:运行此进程的节点已被删除,因此无法 ssh 或 cat 任何日志)
linux - 如何更新 Argo CLI?
我想使用 Argo v2.4.0 并运行以下命令:
这并没有显着改变argo version
(v2.3.0)的输出,因为它正在集群上安装 Argo 并argo version
指向我的本地二进制文件。为了更新 Argo cli,我运行了以下命令:
这给了我一个错误:
gzip: argo-linux-amd64.gz: not in gzip format
我想更新我的 Argo 以解析 workflow.yaml 文件。
kubernetes - Argo Workflow 始终使用默认服务帐户
我安装了 Argo Workflow 的默认掌舵图,仅将 init.serviceAccount 配置为我创建的 argo-sa。(具有足够授权的 ServiceAccount)但是,运行每个 Workflow 作为 serviceaccount Default 运行,我无法弄清楚该设置的配置位置。根据 Argo Helm Chart 提供的自述文件,指定init.serviceAccount
为我创建的服务帐户应该可以解决问题。解决方法是修改默认服务帐户,但似乎不是一个很好的解决方案。有什么我理解不正确的吗?提前致谢。
argo-workflows - How can I get sub workflow steps/tasks output?
I created a cluster workflow template, which will do some tasks. And I will use last step output as current workflow parameters. When I ref this template, I don't know how can I get the output
from cluster workflow task/step.
Cluster Workflow Template
Workflow
kubernetes - 使用带有“get”操作的“resource”模板/步骤在 Argo 工作流程中提取资源并传递给下游步骤?
我正在探索一种在 Argo 工作流程中读取 K8S 资源的简单方法。当前的文档主要关注创建/修补条件(https://argoproj.github.io/argo/examples/#kubernetes-resources),而我很好奇是否可以执行“action:get”,额外资源状态(或完整资源)的一部分并将其作为工件或结果输出传递到下游。有任何想法吗?
azure - Argo 工作流程中的卷节点关联性冲突
我有一个 Argo 工作流程,它有两个步骤,第一个在 Linux 上运行,第二个在 Windows 上运行
两个步骤共享一个卷。
为了在 Azure Kubernetes 服务中实现这一点,我必须创建两个节点池,一个用于 Linux 节点,另一个用于 Windows 节点
问题是,当我对工作流进行排队时,有时它会完成,有时win-step
(在 Windows 容器中运行的步骤)会挂起/失败并显示此消息
1 node(s) had volume node affinity conflict
我已经读到这可能会发生,因为该卷被安排在特定区域中,而 Windows 容器(因为它位于不同的池中)被安排在无法访问该卷的不同区域中,但我不能找到解决方案。
请帮忙。
kubernetes - Argo Workflow args 使用 echo 重定向到文件而不打印
我有以下使用 Kubernetes 的秘密的 Argo 工作流程:
运行 Argo Workflow 时需要重定向TEST_DATA
到文件,但TEST_DATA
argo-ui 日志中始终显示的数据。如何将数据重定向到文件而不在日志中显示数据?
docker - 由于不透明错误,无法运行 Argo 工作流程
我想在 Argo 中触发手动工作流程。我正在使用 Openshift 和 ArgoCD,计划的工作流程在 Argo 中成功运行,但在触发一个工作流程的手动运行时失败。
相关的工作流程是:
当我运行命令时:
构建 pod 已完成,但其余 pod 失败:
以 开头obslytics-data-exporter-manual-workflow
的 pod 是失败的相关 pod。当我尝试通过描述pod 进行调试时:
我从上面的描述中唯一了解到的是 Pod 由于错误而失败。为了调试此问题,我看不到任何错误。
当我尝试阅读 Argo 观察日志时:
certificate - “证书对 10.96.0.1、10.198.74.71,而不是 127.0.0.1 有效”是什么意思?
这个错误是什么意思?我的开发计算机上有 Argo 工作流程,但是当我部署它时,这就是我所看到的。我需要从哪里开始阅读才能修复它?
错误
argo-workflows - 我想使用 podSpecPatch 修补 volumeMounts,但工作流会失败
我创建了一个集群工作流模板,其中一个参数是volume-mounts
. 所以我可以选择已经创建的 pvc 来安装在 pod 上,而不是全部安装。
然后我会得到spec.containers[1].volumeMounts[0].name: Not found: "${volume-name}"
,但${volume-name}
已经在工作流程中定义了spec.volumes