问题标签 [argo-workflows]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
argo-workflows - Argo Workflow - DAG 任务级别重试
我有如下 DAG 工作流程
taskA -> after taskA completes taskB and taskC runs in parallel -> once task B and C completes taskD starts
. 如果 taskC 由于某些外部问题而失败,需要手动干预以进行纠正。更正后,我们可以手动重新启动(从 UI 或 CLI)工作流,以便它直接从失败的 taskC 恢复并转到 taskD 并完成工作流。
kubernetes - 在 argo / k8s 上指定 emptyDir 的大小
是否可以为 emptyDir 指定大小?
请注意,这个问题与Memory
emptydirs 无关,它在不同的线程中得到了回答。
kubernetes - 如何在 Argo 中查看任务的日志?
我正在使用 Argo,并且对工作流示例的工作流有疑问。(https://github.com/argoproj/argo-workflows/blob/master/examples/workflow-of-workflows.yaml)
再次更新
如下所述,这是我需要查看的任务。所以我现在的问题是 - 如何查看任务的日志?
我的工作流程完成没有错误,但没有产生预期的输出。我想查看整个工作流中的一个工作流中的一个容器的日志,但我无法正确使用语法,我使用以下约定从相关 pod 获取日志。
并得到:
基于此输出,容器名称似乎是 argo/Workflow.argoproj.io/message-passing-1-t8749 但是当我将其添加到末尾时出现错误。以下是我尝试过的命令:
或者
kubernetes - 如何将 Argo webhook 触发器参数放入工件中?
我希望能够将大量数据发布到 Argo 中的 webhook。在我的传感器定义中,我从请求中获取数据并将其放入工作流程中的“原始”工件中。由于数据是 base64 编码的,我使用 Sprig 模板对编码数据进行解码。
不幸的是,当我使用大量数据时,Kubernetes 拒绝处理生成的工作流定义。
原始数据示例
此示例适用于少量数据。
较大数据集的错误
当我用一个小数据集触发上面的示例时,这可以按预期工作。但是当我使用大型数据集时,我得到一个错误:
我知道这是由于将整个原始数据复制到工作流模板中。然后这个大模板被 Kubernetes 拒绝。
我正在寻找一种将数据从 webhook POST 请求复制到工件中的方法,而不会将整个有效负载复制到工作流模板中。Argo有可能吗?
argo-workflows - argo 工作流 retryStrategy 覆盖
有没有办法覆盖 argo 中“WorkflowTemplate-retryStrategy”的值?
目前我们在 Argo WorkflowTemplate 中使用硬编码的 retryStrategy ,如下所示(示例代码):
有什么方法可以将它作为工作流参数(或类似的东西)的一部分覆盖?就像下面代码中注释的“#”值:
azure - triggering argo-workflow based on azure-blob-storage event (through argo-events)
I would like to trigger an argo-workflow, when a new file gets uploaded in azure-blob-storage.
I tried to solve this in 3 different ways, but none has worked as of now.
======
- Azure-blob-storage event --> triggers an "argo-event webhook eventsource/sensor" --> triggers argo-workflow
here "Azure-blob-storage webhook event trigger" & "argo-event webhook endpoint" --> is throwing handshake validation error.
Though I am able to trigger argo workflow by calling "argo-event webhook endpoint" manually using curl & port-forwarding
======
- Azure-blob-storage event --> triggers an "argo-event azure-hub" eventsource/sensor --> triggers argo-workflow
this is also not working, I posted another stackoverflow question related with this: does argo-events support azure-hub as eventsource?
======
- Azure-blob-storage event --> triggers an "azure-function" --> and "azure-function" triggers argo-workflow
I need to spend some more time on this, but I am not able to make this work yet.
========
Does anyone know what is the best way to solve this problem & anyone have any sample codes for reference?
kubernetes - 在 argo 工作流程中创建动态 dag 工作流程?
工作流的创建应该在运行时。如何在 argo 工作流用例中实现这一点:父子子子
父任务然后它子任务开始然后子子任务,但在运行时我们将有多少级别的子父持有
kubernetes - 使用 envFrom 字段时出现 Argo Workflow 错误
工作流程:
模板:
通过 Argo UI 部署时,我在启动 pod 时收到来自 Kubernetes 的以下错误:
envFrom
Argo 文档支持并记录了使用: https ://argoproj.github.io/argo-workflows/fields/ 。为什么 Kubernetes 在这里抱怨?
kubernetes - Kubernetes 请求和限制关系
我已经指定我想在我的资源请求中使用 4 个 vcpu
这与我描述节点时看到的不符
我没有指定限制,这看起来限制低于请求的资源,是这样吗?如果是这样,我需要指定一个限制吗?
这是我的清单:
kubernetes-helm - argocd - 卡在删除但资源已被删除
argoproj/argocd:v1.8.7
有一个舵图(1 个带有入口,1 个带有部署/服务/cm)。它具有自动(修剪和自我修复)的同步策略。当试图从 argocd 仪表板中删除它们时,它们被删除(在 k8s 集群上不再存在),但是仪表板上的状态一直停留在删除。
如果我尝试单击同步,它会显示 -> 无法部署修订:应用程序正在删除。任何想法为什么即使所有资源都已被删除,它仍停留在删除状态?有没有办法刷新仪表板中的状态以反映实际状态?
谢谢!
=================
更新:在进行级联删除之后,这是屏幕截图(我已经删除了应用程序名称,为什么它的某些部分是白色的)
执行 kubectl get all -A 显示所有资源不再存在(例如,甚至 cm、svc、deploy 等)