问题标签 [azureml-python-sdk]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 如何从 pip 需求文件创建 AzureML 环境
我对使用 pip 从需求文件创建环境非常满意。我可以从 AzureML 实验的需求文件创建相同类型的环境吗?
python - 如何从 conda 规范文件为实验创建 AzureML 环境
我想使用我现有的 conda 环境规范文件来创建 AzureML 实验环境。我们怎么能这样做?
azure - 如何创建 AzureML 环境并添加所需的包
我想使用为 AzureML 环境添加一些包到环境中。那是什么方法呢?
azure - 如何在 AzureML 上使用管道参数
我在 AzureML Designer 上构建了一个管道,我正在尝试使用管道参数,但我无法在 python 脚本模块上获取这些参数的值。
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-create-your-first-pipeline 本文档包含一个名为“使用管道参数处理在推理时更改的参数”的部分,但是,不幸的是,它是空的。
我正在定义管道设置的参数,请参阅底部的屏幕截图。有谁知道在使用 Designer 构建管道时如何使用参数?
azure - azure ml 管道创建中面临的问题
创建容器映像时,在 ACI 实例中显示以下错误。任何帮助表示赞赏。
映像创建时没有任何错误,但在构建过程中失败。
azure-data-factory - 从数据工厂管道中的 ML Studio 管道中获取结果
我们目前有一个数据工厂管道,它能够成功调用我们的 ML Studio 管道之一。ML Studio Pipeline 完成后,我们希望 Azure 数据工厂获取 ML Studio Pipeline 的结果并将结果存储在 SQL Server 中。
我们发现 PipelineData 类根据子运行 id 将结果存储在 blob 中的文件夹中,这使得数据工厂很难获取结果。然后我们发现了 OutputFileDatasetConfig,它允许 ML Studio 将结果保存到数据工厂的静态位置。这对数据工厂很有用,除了 OutputFileDatasetConfig 并不总是有效 :( 因为它是实验类。我们花了一段时间才弄清楚这一点,我们甚至为此创建了一个 stackoverflow 问题,我们解决了这个问题,可以在这里找到: Azure ML Studio ML 管道 - 异常:未找到临时文件
我们返回使用 PipelineData 类,该类根据子运行 id 将结果存储在 blob 中的文件夹中,但我们无法弄清楚如何让数据工厂根据 ML Studio Pipeline 的子运行 id 找到 blob刚跑。
所以我的问题是,你如何让数据工厂获取从数据工厂管道触发的 ML Studio 管道的结果???
这是我们正在尝试构建的数据工厂管道的简单视图。
第3步是我们无法弄清楚的步骤。任何帮助将不胜感激。感谢和快乐的编码!
pandas - 在 azure ML 中过滤 TabularDataset
我的数据集很大。我正在使用 Azure ML 笔记本并使用 azureml.core 读取日期集并转换为 azureml.data.tabular_dataset.TabularDataset。无论如何我会过滤表格数据集中的数据而不转换为熊猫数据框。我正在使用下面的代码来读取数据。由于数据很大,熊猫数据框内存不足。我不必将完整的数据加载到程序中。只需要子集。有什么办法可以在转换为熊猫数据框之前过滤记录
azure - Azure ML:更新由 Designer 创建的 PipelineDraft 上的参数
只是四处询问,因为我找不到任何文档/先前的查询。我目前正在使用 Azure ML Designer 来设计管道。我正在尝试使用 Azure ML Python SDK 来修改我的——尤其是在;PipelineDraft
中使用的输入数据。DataSourceNode
然而无济于事。
我也尝试将其转换为参数,然后调用pipeline.update()
. 虽然这适用于更改PipelineDraft
的名称,但它不会修改任何参数(因此不会影响输入数据集)。
真的很感激一些帮助,因为我已经为此苦苦挣扎了一段时间。SDK 文档也更专门针对纯 Python 用户量身定制。
azure - Azure ML 工作区:如何将管道发布到现有端点而不是创建新端点
我正在努力在 Azure 机器学习工作区中部署推理管道。
我已经使用几个PythonScriptStep
s 创建了一个管道,并希望使用 CI/CD 自动化管道发布。
参考:https ://docs.microsoft.com/en-us/azure/machine-learning/how-to-deploy-pipelines#publish-a-pipeline
每次我发布时,它都会创建新的端点,但我想部署到现有的端点,这样就不必在消费者端进行任何更改。