问题标签 [azureml]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 在 AzureML 中部署模型时如何将参数传递给评分文件
我正在使用 Python SDK 将经过训练的模型部署到 Azure 机器学习上的 ACI 端点。我已经创建了我的 score.py 文件,但我希望在调用该文件时传递一个参数(就像使用训练文件一样),我可以使用argparse
. 但是,我似乎不知道如何传递参数这是我必须创建 InferenceConfig 环境的代码,显然它不起作用。我应该使用额外的 Docker 文件步骤吗?
添加 score.py 以供参考我希望如何使用该脚本中的参数:
有兴趣听听你的想法
python - Model.get_model_path(model_name="model") 抛出错误:在缓存或根目录中找不到模型
我有一个模型,我用管道注册了它:
这是我的 register_model.py:
当我使用以下方法循环现有模型时,我可以看到模型已注册:
但是,当我尝试在我的 Score.py(如下)中加载模型以将模型部署为服务时,我收到以下错误:
我相信这是错误的来源:
错误:
azure - 我应该何时使用 Azure ML Notebooks VS Azure Databricks?在我看来,两者都是竞争对手的产品
非常不言自明的问题。我应该何时使用 Azure ML Notebooks VS Azure Databricks?我觉得这两种产品之间有很大的重叠,其中一种肯定比另一种更好。
我主要在寻找有关数据集大小和典型工作流程的信息。如果我没有面向 Spark 的工作流,为什么要在 AzureML 上使用 Databricks?
谢谢 !
azure-machine-learning-studio - Azure 机器学习 FileDataSet 图像 - 分片/拆分到节点
如何在不同的火车节点中读取部分 Azure 文件数据集(包含 1000 个图像)。我想要一个覆盖所有图像的样本。
我正在寻找像 tensorflow.dataset.shard() 这样的选项。
谢谢。
hadoop - 在将模型部署到 AKS PipelineModel.load 时抛出 org.apache.hadoop.mapred.InvalidInputException
我正在尝试将模型部署到 AKS。我正在使用 AML SDK 在 aml 工作区中注册模型。我正在使用 PipelineModel 模块来保存模型。我正在尝试使用 PipelineModel.load 加载模型。我的输入脚本如下所示:
` import os import json import pandas as pd
从 azureml.core.model 导入模型 从 pyspark.ml 导入 PipelineModel 从 mmlspark 导入 ComputeModelStatistics
def init(): import mmlspark # 这是加载 mmlspark 库所需要的 import logging
def run(input_json): try: output_df = model.transform(pd.read_json(input_json)) evaluator = ComputeModelStatistics().setScoredLabelsCol("prediction").setLabelCol("label").setEvaluationMetric("AUC") result = evaluator .transform(predictions) auc = result.select("AUC").collect()[0][0] result = auc 例外为 e: result = str(e)
`
它给出如下错误:
org.apache.hadoop.mapred.InvalidInputException:输入路径不存在:文件:/var/azureml-app/azureml-models/lightgbm.model/2/lightgbm.model/metadata\n\tat org.apache.hadoop。 mapred.FileInputFormat.singleThreadedListStatus(FileInputFormat.java:287)\n\tat org.apache.hadoop.mapred.FileInputFormat.listStatus(FileInputFormat.java:229)\n\tat org.apache.hadoop.mapred.FileInputFormat.getSplits(文件输入格式.java:315)。
os.path.exists 返回从 Model.get_model_path 获取的路径 true。
我在这里错过了什么吗?
azureml - Azure ML 设计器 - 无法连接数据集(任何目录类型)以清理设计器中丢失的数据模块(dataframedirectory 类型)
无法连接数据集(任何目录类型)以清除设计器中丢失的数据模块(dataframedirectory 类型)。请指教。下面是尝试连接的屏幕截图,其中未突出显示干净的缺失模块连接点以连接两个模块,我假设这是因为类型不匹配。数据集输出类型为“AnyDirectory”类型,其中干净缺失的模块类型为“dataframedirectory”。设计师如何选角?
python - Azure ML 探查器在哪里运行?
模型探查器在 Azure ML 中的什么位置运行?
此处的文档解释了如何注册数据集、指定推理配置(评分脚本和环境)并运行分析器。
我正在尝试分析一个 tensorflow 模型,但我收到了这个错误,它基本上没有说明出了什么问题:
那么 3.5 个 CPU 和 15 GB 究竟是在哪里要求的呢?在哪里可以找到错误的详细信息?
python - 鉴于此模型是较早的腌制模型,如何使用 XGBoost 正确加载 .pkl 模型?
我正在寻找加载模型并且遇到问题,因为该模型是使用旧版本的 XGBoost 制作的。我已经访问了他们的网站并查看了,但它并没有明确说明什么语法可以正确解决这个问题并正确加载模型。我也没有意识到使用 joblib 加载时甚至需要 XGBoost
下面是代码:
这是错误:
引发 XGBoostError(py_str(_LIB.XGBGetLastError())) xgboost.core.XGBoostError: [15:33:27] C:\Users\Administrator\workspace\xgboost-win64_release_1.0.0\src\learner.cc:682: 检查失败: 标头 == serialisation_header_:
如果您正在加载由旧版 XGBoost 生成的序列化模型(如 Python 中的 pickle),请先
Booster.save_model
从该版本调用导出模型,然后将其加载回当前版本。有一个简单的脚本可以帮助这个过程。看:以供参考脚本,以及有关保存模型和序列化之间差异的更多详细信息。
docker - 在 AML docker 上运行 Pytorch 时,纪元时间增加
在 AML 和自定义 docker 映像上运行 Pytorch 训练时,纪元时间不断增加。当相同的代码在本地运行时,epoch 时间是恒定的(这里的区别是不涉及 docker 映像并且训练数据集存在于本地,因此不是 AML 挂载的 blob 存储,并且机器不同)
关于如何弄清楚发生了什么的任何建议?例如,我如何记录有用的内存消耗?GPU、Pytorch、磁盘访问等