问题标签 [argoproj]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
kubernetes - 如何跳过 Argo 工作流程的步骤
我正在尝试 Argo 工作流程,并想了解如何冻结步骤。假设我有 3 步工作流,而工作流在第 2 步失败。所以我想使用成功的第 1 步的工件从第 2 步重新提交工作流。我怎样才能做到这一点?我在文档的任何地方都找不到指导。
kubernetes - Apache Airflow 或 Argoproj 用于 kubernetes 上的长时间运行和 DAG 任务
我们在 k8s 中有很多长时间运行的内存/cpu 密集型作业,这些作业在谷歌云平台上的 kubernetes 上使用 celery 运行。但是,我们在扩展/重试/监控/警报/交付保证方面存在很大问题。我们想从 celery 转移到一些更高级的框架。
有一个比较:https ://github.com/argoproj/argo/issues/849但这还不够。
空气流动:
- 在社区有更好的支持 ~400 vs ~12 个标签,13k 星 vs ~3.5k 星
- python 定义流的方式感觉比只使用 yamls 更好
- 作为产品支持 GCP:Cloud Composer
- 更好的仪表板
- 一些不错的运营商,例如电子邮件运营商
阿尔戈项目:
- 对 Kubernetes 的本机支持(我认为这在某种程度上更好)
- 支持未来可能有用的 CI/CD/事件
- (可能)更好地支持将结果从一项工作传递到另一项工作(在 Airflow xcom 机制中)
我们的 DAG 并没有那么复杂。我们应该选择哪些框架?
argoproj - 如何在 argoproj 中安排工作流程?
我在 argoproj 工作流程中编写了一个工作流程,我想每隔 1 小时执行一次。在平面 k8s 中,我会使用 CronJob 类型来完成这项任务。我应该使用什么?
argoproj - 使用 argo 事件触发 argo 工作流程中的步骤
我们正在开发不同的 wf 工具,argo 因其广泛的功能而脱颖而出,而且它是 k8s 原生的,但我们有长时间运行步骤的用例,我们希望基于事件的系统触发下一步或重试基于上一步关于事件(例如远程作业的状态),是否可以通过 argo-events 来实现?
kubernetes - 由于工作流文件中的“when”表达式无效,无法执行 argo 工作流
错误:-
我收到 Invalid 'when' expression '{{steps.check-channel-exists.outputs.result}}' 的错误:Invalid token: '{{'。
我正在尝试在这里执行工作流程。有人可以指出我正确的方向,以便我解决这个问题吗?
阿尔戈:
掌舵版本:
kubectl 版本:-
我收到错误的代码块。
apache-spark - 使用 Argo 工作流程的 K8S Spark
我正在为我的用例探索argo 工作流程spark
。是否有任何示例YAML
显示如何使用Argo 工作流程spark job
执行k8s
machine-learning - 如何将一个节点的输出作为输入参数传递给 Argo 工作流 DAG 中的另一个节点
我正在尝试使用 Argo 构建 ML 管道 DAG。我遇到了一个问题,我需要将 DAG 中一个节点的值作为参数发送到其后续节点。假设 ARGO DAG 结构如下所示:
A -> B
B 中发生的计算取决于 A 中已计算的值。
如何将 A 中计算的值传递给 B?
kubernetes - KubeFlow,处理大型动态数组和具有当前大小限制的 ParallelFor
在过去的一天里,我一直在努力为这种方式找到一个好的解决方案,并想听听你的想法。
我有一个接收大型动态 JSON 数组(仅包含字符串化对象)的管道,我需要能够为该数组中的每个条目创建一个 ContainerOp(使用 dsl.ParallelFor)。
这适用于小输入。
现在,由于 argo 和 Kubernetes 的管道输入参数大小限制,数组作为文件 http url 出现(或者这是我从当前打开的问题中理解的),但是 - 当我尝试从一个 Op 读取文件以使用作为 ParallelFor 的输入,我遇到了输出大小限制。
对于这种情况,什么是好的和可重用的解决方案?
谢谢!
go - 将 yaml 文件注入 Argo 工作流程步骤的最佳方法是什么?
概括:
我们有一个 golang 应用程序,可以根据请求将 Argo 工作流提交到 kubernetes 集群。我想将 yaml 文件传递给其中一个步骤,我想知道这样做的选项是什么。
环境:
- 阿尔戈:v2.4.2
- K8s:1.13.12-gke.25
额外细节:
最终,我想将此文件传递给测试步骤,如下例所示:
此步骤中使用的图像将具有一个 python 脚本,该脚本接收该文件的路径然后访问它。
要使用 golang 提交 Argo 工作流,我们使用以下依赖项:
- https://github.com/argoproj/argo-workflows/tree/master/pkg/client
- https://github.com/argoproj/argo-workflows/tree/master/pkg/apis
谢谢你。
google-cloud-platform - 除了 Prometheus,还有哪些 Metrics Providers 可以与 ArgoCD 一起使用?
我正在尝试使用 AnalysisTemplate 进行 Canary 推广,并且好奇我可以使用 Stackdriver、Istio 或 Anthos 作为指标提供者吗?
官方文档中只提到了 Prometheus。