问题标签 [azureml]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
azure - azure ml 管道创建中面临的问题
创建容器映像时,在 ACI 实例中显示以下错误。任何帮助表示赞赏。
映像创建时没有任何错误,但在构建过程中失败。
azure-data-factory - 从数据工厂管道中的 ML Studio 管道中获取结果
我们目前有一个数据工厂管道,它能够成功调用我们的 ML Studio 管道之一。ML Studio Pipeline 完成后,我们希望 Azure 数据工厂获取 ML Studio Pipeline 的结果并将结果存储在 SQL Server 中。
我们发现 PipelineData 类根据子运行 id 将结果存储在 blob 中的文件夹中,这使得数据工厂很难获取结果。然后我们发现了 OutputFileDatasetConfig,它允许 ML Studio 将结果保存到数据工厂的静态位置。这对数据工厂很有用,除了 OutputFileDatasetConfig 并不总是有效 :( 因为它是实验类。我们花了一段时间才弄清楚这一点,我们甚至为此创建了一个 stackoverflow 问题,我们解决了这个问题,可以在这里找到: Azure ML Studio ML 管道 - 异常:未找到临时文件
我们返回使用 PipelineData 类,该类根据子运行 id 将结果存储在 blob 中的文件夹中,但我们无法弄清楚如何让数据工厂根据 ML Studio Pipeline 的子运行 id 找到 blob刚跑。
所以我的问题是,你如何让数据工厂获取从数据工厂管道触发的 ML Studio 管道的结果???
这是我们正在尝试构建的数据工厂管道的简单视图。
第3步是我们无法弄清楚的步骤。任何帮助将不胜感激。感谢和快乐的编码!
pandas - 在 azure ML 中过滤 TabularDataset
我的数据集很大。我正在使用 Azure ML 笔记本并使用 azureml.core 读取日期集并转换为 azureml.data.tabular_dataset.TabularDataset。无论如何我会过滤表格数据集中的数据而不转换为熊猫数据框。我正在使用下面的代码来读取数据。由于数据很大,熊猫数据框内存不足。我不必将完整的数据加载到程序中。只需要子集。有什么办法可以在转换为熊猫数据框之前过滤记录
python - 数据输入期间的 Azure ML 时间序列模型推理错误(python)
在 Azure ML Studio 中,我使用 AutoML 准备了一个用于时间序列预测的模型。这些数据在所有数据集中都有一些罕见的差距。我正在使用以下代码将已部署的 Azure AutoML 模型调用为 Web 服务:
我收到一个错误:
我试图将“ignore_data_errors=True”添加到代码的不同部分但没有成功,因此出现另一个错误:
我非常感谢任何帮助,因为我陷入了困境。
azure - Azure ML:更新由 Designer 创建的 PipelineDraft 上的参数
只是四处询问,因为我找不到任何文档/先前的查询。我目前正在使用 Azure ML Designer 来设计管道。我正在尝试使用 Azure ML Python SDK 来修改我的——尤其是在;PipelineDraft
中使用的输入数据。DataSourceNode
然而无济于事。
我也尝试将其转换为参数,然后调用pipeline.update()
. 虽然这适用于更改PipelineDraft
的名称,但它不会修改任何参数(因此不会影响输入数据集)。
真的很感激一些帮助,因为我已经为此苦苦挣扎了一段时间。SDK 文档也更专门针对纯 Python 用户量身定制。
azure - AzureMLCompute job failed: container registry failed unexpectedly: container setup task failed
Could you please help me with running python script in azureml environment? I created the workspace and azure container registry and pushed docker image to the container. This is the example of dockerfile:
I created environment like this:
myenv = Environment.from_pip_requirements(name = ws.get_details()['name'],file_path = "requirements.txt")
When I run the experiment I get this error:
"Message": "AzureMLCompute job failed.\nJobContainerConfigFailed: Container configuration failed unexpectedly\n\tJobContainerConfigFailed: Container configuration failed unexpectedly\n\terr: container setup task failed: exit status 1\n\tReason: container setup task failed: exit status 1\n\tInfo: Failed to prepare an environment for the job execution: Job environment preparation failed on 10.0.0.5 with err exit status 1."
I do not understand what this error mean.
I configure and submit training job with following:
Thank you!
azure - Azure ML 工作区:如何将管道发布到现有端点而不是创建新端点
我正在努力在 Azure 机器学习工作区中部署推理管道。
我已经使用几个PythonScriptStep
s 创建了一个管道,并希望使用 CI/CD 自动化管道发布。
参考:https ://docs.microsoft.com/en-us/azure/machine-learning/how-to-deploy-pipelines#publish-a-pipeline
每次我发布时,它都会创建新的端点,但我想部署到现有的端点,这样就不必在消费者端进行任何更改。
python - AzureDevOPS ML 错误:我们在 /home/vsts/work/1/s 或其父目录中找不到 config.json
我正在尝试创建 Azure DEVOPS ML 管道。以下代码在 Jupyter Notebooks 上可以 100% 正常运行,但是当我在 Azure Devops 中运行它时,我得到了这个错误:
代码是:
azureml - AzureMl 管道:如何将 step1 的数据访问到 step2
我正在关注微软的这篇文章,通过两个步骤创建 azure ml 管道,并希望将 step1 写入的数据用于 step2。根据下面的文章,代码应提供 step1 写入用于 step2 的脚本的数据路径作为参数
但是当我访问 step2.py 中的 pd 参数时,它提供了
“<azureml.data.output_dataset_config.OutputFileDatasetConfig 对象在 0x7f8ae7f478d0>> 的绑定方法 OutputFileDatasetConfig.as_mount”
知道如何传递 step1 使用的 blob 存储位置在 step2 中写入数据吗?