问题标签 [azure-yaml-pipelines]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
azure - How to download artifacts from the last job execution when retrying a job in the same stage using Yaml pipelines?
I have a single stage with 3 jobs:
Job A -> Always publishes artifact
Job B -> Always publishes artifact
Job C -> Depends on and uses the artifacts from Job A and Job B
Jobs A and B are retryable if they fail.
Ideally, jobs A and B would overwrite the artifact produced when retried but Yaml pipelines don't allow deleting artifacts and the suggested workaround is to put the Job ID in the artifact name.
How do I get the correct artifacts from Jobs A and B in Job C in the following scenario:
Pipeline is executed and Job A succeeds but Job B fails - both still publish artifacts which results in:
JobA_Artifact1
JobB_Artifact1
The failed Job B is retried and succeeds but then we end up with the following artifacts:
JobA_Artifact1
JobB_Artifact1
JobB_Artifact2
In Job C - how do I now get the latest artifact from Job A (which was from the previous execution) and the latest artifact from Job B? I'm hoping there's a better way than sticking a counter onto the end of the artifacts and then basically searching backwards for each artifact.
terraform - 如何将先前作业中的变量传递给 Terraform 计划任务的 terraform_parameters 参数?
我正在尝试将my_variable1
我在以前的作业中注册的变量传递给terraform_parameters
参数:
但是我得到syntax error: invalid arithmetic operator (error token is ".get_secrets['publish_secrets.my_variable1']")
在过去的几个小时里尝试了很多东西。如何将 my_variable1 作为参数传递给terraform_parameters
azure - azure kubernetes服务的单节点可以部署多少个模型?
使用 ML Studio 和 azure Kubernetes 服务部署 170 ml 模型,该服务在以下文档链接“https://github.com/MicrosoftDocs/azure-docs/blob/master/articles/machine-learning/how-to”中引用-deploy-azure-kubernetes-service.md”。
我们正在使用带有自定义环境的 python 脚本来训练模型,并且我们正在 Azure ML 服务上注册 ml 模型。注册模式后,我们将使用容器映像将其部署在 AKS 上。
在部署 ML 模型时,我们能够为 AKS 中的每个节点的每个 pod 部署多达 10 到 11 个模型。当我们尝试在同一节点上部署模型时,我们收到部署超时错误,并且我们收到以下错误消息。
用于使用具有以下部署配置的 Python 语言在 Azure Kubernetes 服务中部署模型(auth_enabled = Flase、autoscale_enabled = Flase、cpu_cores = 0.6、memory_gb = 1、cpu_cores_limit = 2、memory_gb_limit = 2)。
我们还检查了 azure 文档,我们可以找到 aks 节点的任何配置或部署设置。
您能否就“每次部署(每个容器)要部署的模型数量限制为 1,000 个模型”向我们提供更多说明,您能否就如何增加每个节点中部署的 ml 模型的数量提供见解/反馈? Azure Kubernetes 服务。谢谢!
azure-devops - 如何为多个构建工件创建单个 yaml 发布管道
我们对每个生成工件的模块都有单独的构建定义。有人可以帮我如何为所有构建定义创建一个通用的 yaml 发布管道
谢谢!
azure-devops - 如何在 azure 管道中参数化 azure agent.name?
我正在尝试在 azure 管道中参数化 agent.name。目标是为用户提供在所需机器上部署代码的选项。所以我创建了一个包含几台机器的池,并参数化了 agent.name
代码
错误:尝试运行上述代码时,出现以下错误。
请帮助解决此问题。
azure - 如何从 azure 管道中的变量模板文件中迭代所有变量?
test_env_template.yml
以及列表中的更多变量。
我想使用循环遍历 test_env_template.yml 中的所有变量来替换文件中的值,有没有办法做到这一点,而不是像 ${{ variables.ACTIVEMQNAME}} 那样单独调用每个值作为否。模板中的变量是动态的。
azure-devops - 在 Azure Pipelines 部署作业之间传递变量
我们有两个在同一阶段运行的部署作业。第一个作业创建一个输出变量,第二个作业使用该输出变量(从这里借用的代码并在我们的管道中以相同的方式实现)。
这是可行的,因为我们引用了生产者部署作业在其上运行的虚拟机(硬编码)。但是,并非每个阶段都将在同一虚拟机上运行。
我已经尝试过常规变量($(Agent.MachineName))以及表达式语法,从模板文件传递变量并更改变量模板的范围,但它们都不起作用并且“myVarFromDeploymentJob”变量保持为空.
有没有办法让表达式变量中的虚拟机名称更灵活?所以从这个开始:
对于这样的事情:
amazon-s3 - 如何通过 Azure yaml 管道将数据从私有 S3 存储桶复制到 Azure Blob 存储
我有一个存储 CSV 文件的 S3 存储桶。新的 CSV 文件会在每个月初添加到此存储桶中。我希望这些新文件在每个月初自动上传到 Azure Blob 存储。
我想这样做的方法是创建一个脚本(bash/PowerShell),通过AZ Copy命令将数据从 AWS S3 存储桶拉到 Azure blob 存储。然后将此脚本插入 Azure YAML 管道,该管道在每个月初运行以执行此脚本。但我找不到将此脚本集成到 Azure YAML 管道中的方法。此命令对 YAML 管道是否可行?或者有什么简单的方法可以做到这一点?
azure-devops - 如何在同一作业内的任务之间更改 YAML 变量的值
如何通过任务在 YAML 文件中设置 YAML 变量的新值,后续任务将使用 powershell 显示新值?(两个任务都在同一个工作中)
我正在尝试使用下面的代码,但它不起作用。即使第一个任务为该 YAML 变量设置了新值,第二个/后续任务仍会获得初始值
第一个将设置/更新变量值的任务:
第二个任务将显示具有新值的变量:
现在任务 2 的预期输出应该是:
但由于某种原因,我得到的实际输出是初始值:
azure-devops - 通过 YAML 任务运行 powerscript 文件
您是否有一些关于如何在 YAML 文件中的任务中运行 powershell 脚本文件的简单工作示例。就像这个一样?似乎我的无法获取并执行脚本,因为没有打印日志。