问题标签 [argo]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
0 回答
70 浏览

azure - Argo 事件:通过 Azure 子网上的 K8s 负载均衡器公开 Webhook

我正在尝试通过 K8s 负载均衡器将 POST 请求路由到 Argo Events 中的 Webhook。我找不到任何明确的文档。我能够创建 Webhook,并且当我移植 webhook-eventsource-svc 时,我可以成功地与它通信。负载均衡器构建良好并显示我分配的外部 IP。但是,当我尝试 POST 到负载均衡器时,我只会收到连接超时错误。我希望我只是错误地配置了这些清单。

这是两个服务的清单。

这是我发送请求的方式:

有什么建议么?

0 投票
2 回答
259 浏览

docker - Argo 工作流等待 pod 未在 GKE 上使用命令 docker ps 显示进程

我在 GKE 中运行 Argo Workflow,并且在运行以下命令时工作流不显示容器 ID

因为这个等待容器卡在一个循环中,搜索主容器完成。

0 投票
1 回答
144 浏览

workflow - Argo工作流程:强制停止时执行步骤

我有 5 个步骤 Argo-workflow: step1:在云上创建 VM step2:做一些工作 step3:做更多工作 step4:做一些进一步的工作 step5:删除 VM

以上所有步骤都很耗时。无论出于何种原因,正在运行的工作流可能会通过发出停止/终止命令来停止或终止。

我要做的是,如果在step4启动之前的任何阶段发出了停止/终止命令,我想直接跳转到step4,这样我就可以清理在step1创建的VM。

有什么办法可以做到这一点?我想象它可以这样发生:

  1. 假设我在第 2 步发出停止/终止信号。
  2. 在第 2 步运行的 pod 会收到工作流将要停止的信号。
  3. pod 停止当前的工作并输出一个特殊的字符串,告诉下一步要跳过
  4. 所以 step3 看到 step2 的输出,跳过它的工作并将其传递给 step4 等等。
  5. step5 运行不考虑输入并删除 VM。

请让我知道这样的事情是否可以实现。

0 投票
0 回答
76 浏览

single-sign-on - 如何使用 Argo Workflows SSO 跳过登录页面

我有一个配置了 SSO 的 Argo Workflows 实例。当我单击工作流链接时,如果我没有登录,它会将我带到登录页面,这迫使我单击登录按钮将我重定向到我的 SSO 提供商,然后在成功时将我重定向到工作流。

有谁知道是否可以配置 SSO 身份验证以便跳过登录页面并将用户直接重定向到 SSO 登录页面?我一直在查看文档和源代码,但没有运气,我想在放弃之前先在这里问一下。谢谢

0 投票
1 回答
188 浏览

github - 从传感器覆盖 Argo 工作流 generateName

我正在研究自定义工作流程名称。我看到它argo submit --generate-name可以覆盖该.metadata.generateName属性,但有谁知道这是否可以Sensor触发 a Workflow

我正在使用 GitHub 事件来触发这些工作流,但最好将存储库名称从事件中提取出来并将其设置为generateName工作流上的。

这是我希望工作的一个例子,但据我所知似乎没有。也许我的语法错误?有谁知道这样的事情是否可能?

(注意,我已经删除了这个传感器的很大一部分,以便只显示重要部分。基本上,我想解析存储库名称的 GitHub 事件有效负载。在工作流参数上设置它。然后使用这些来覆盖工作流的generateName属性。)

0 投票
0 回答
90 浏览

apache-spark - Why argo doesn't finish, when the spark submit of an apache spark app on k8s ends?

I have an issue with Argo-Spark integration, the main issue is when the spark-submit application takes more processing time on k8s, so when Spark is already finished and de pod is completed, on the Argo side, the dag is still running when the spark application has finished.

The image shows when the spark app is already finished and the dag is still running.

enter image description here

The log shows the trace and is infinite until It's manually stopped.

The spark-submit

0 投票
1 回答
202 浏览

kubernetes - 成功完成后自动删除 Argo 工作流

我的 Argo 设置在 GKE 上。

我观察到的是在成功完成工作流程后,它会被自动删除。但是,如果工作流失败,则工作流和所有节点 pod 仍保留在集群中。

我找不到与此相关的任何文档。如果您能就此分享一些建议,我将不胜感激。

请注意,这只发生在 GKE 集群上。在 minikube 上运行它不会重现这种行为。

0 投票
0 回答
76 浏览

azure - Argo Workflow SSO 不适用于 Azure Active Directory B2C

我们正在尝试将 Argo Workflow SSO 与 Azure Active Directory B2C 集成。但它不起作用。虽然我们能够将它与 Keycloak 完美结合。

使用 Keycloak,我们的 argo-workflow configmap (workflow-controller-configmap) 如下所示,运行良好。

kubectl get cm workflow-controller-configmap -n argo -o yaml



但是,如果我尝试使用 Azure Active Directory B2C url 修改相同的内容,如下所示,它不起作用:

我们将以下文档作为参考(搜索 SSO): https ://argoproj.github.io/argo-workflows/workflow-controller-configmap.yaml

我们还检查了 Microsoft Team 和 Azure B2C 方面,我们能够运行示例用户流 ( https://jwt.ms/ ) 并验证身份验证令牌。所以我们的理解是 Azure B2C 配置看起来不错,但不知何故“Argo Workflow Integration with Azure B2C”不起作用。

任何人都可以帮忙,这对我们来说是一个障碍。

0 投票
2 回答
338 浏览

json - 如何在 argo 工作流程中的地图中传递多行 json 字符串

我正在创建一个带有withParammap 变量循环的 argo 工作流。在这张地图中,我想使用多行 json 字符串。有什么方法可以使用它吗?

这是我policy用作多行字符串的方式,但它不起作用

argo 工作流程中有什么方法可以实现这一点吗?如果没有,有什么替代方法可以做到这一点?

0 投票
1 回答
108 浏览

kubernetes - 如何删除在 Argo 命名空间中启动的 Argo 事件?

我正在尝试删除(并重新创建)Argo 命名空间,但它不会完全删除,因为我尝试在那里启动事件源和事件总线。现在这些不会删除。

我试图通过 yaml 单独删除它们 - 还没有成功。

令人沮丧的结果是我无法重新启动 argo

这是 argo 命名空间本身发生的事情

更新:即使 Kubernetes 的一项测试表明事件源仍然存在,但另一项测试表明它没有

这是对 kubectl get eventsources argo 的回复