1

我正在开发一个使用 Azure ML(ml.azure.com) 创建模型的项目,

我计划最终使用 Azure ML Designer,所以我选择了一个示例管道(回归 - 汽车价格预测(基本))。然后我创建了一个实时推理管道并创建了一个实时端点。

发布此消息后,我可以按预期通过互联网从 .Net 客户端获取此模型的预测。

作为同一个项目的一部分,我最终希望通过预测完全消除互联网依赖/附属延迟。我知道这可以通过打包模型并下载在本地计算机上运行并通过评分 Web 服务公开模型的 docker 映像来实现。

为了打包模型并将其下载为 docker 映像,我使用了以下 python 代码,这将在我的本地 PC 上执行:

import azureml.core
print(azureml.core.VERSION)


from azureml.core import Workspace
ws = Workspace.get(name="TestMLWorkSpace", subscription_id='XXXXXX-a9c4-4426-XXXX-XXXXXXX', resource_group='MyResourceGroup')

from azureml.core.experiment import Experiment
experiment = Experiment(workspace=ws, name='TestAutomobileSampleExp')

list_runs = experiment.get_runs()
for run in list_runs:
    print(run.id)

list_experiments = Experiment.list(ws)


from azureml.core.model import Model
import os

model = Model(workspace=ws, name="amlstudio-regrealtimeendpoint")
model.download(target_dir=os.getcwd(), exist_ok=1 )

from azureml.core import Environment
from azureml.core.model import InferenceConfig

env = Environment.get(workspace=ws, name="AzureML-Minimal")
inference_config = InferenceConfig(
    environment=env,
    source_directory="./",
    entry_script="./score.py",
)



package = Model.package(ws, [model], inference_config)
package.wait_for_creation(show_output=True)

package.pull()
#checked image id using --->   docker images
# replace image id from the result above in the following command
# docker run -p 6789:5001 --name mycontainer c262eaa7bab9

#  http://localhost:6789/score

现在,当我运行此脚本时,会在我的计算机上下载一个 docker 映像,并且可以使用 docker 运行该映像。

问题是什么?

作为创建推理配置的一部分,我需要指定一个名为 score.py 的入口脚本。似乎我无法运行 docker 映像,因为入口脚本可能不正确。

这是我的 score.py 目前的样子:

导入操作系统导入json

从 azureml.core.model 导入模型导入日志记录

def init():
    global model
    logging.basicConfig(level=logging.DEBUG)
    model_path = Model.get_model_path(model_name='amlstudio-regrealtimeendpoint')
    print(Model.get_model_path(model_name='amlstudio-regrealtimeendpoint'))
    #How do I load the model here??


def run(input_data):
    try:
        data = json.loads(input_data)['data']
        data = np.array(data)
        result = model.predict(data)
        return json.dumps({"result": result.tolist()})
    except Exception as e:
        result = str(e)
        # return error message back to the client
        return json.dumps({"error": result})

我从 Microsoft 材料中构建了这个入口脚本,但它不起作用并且 Docker 映像无法启动。

我的问题是,

  1. 推理配置中的源目录是否正确?鉴于我只希望模型在本地运行能够在本地提供预测,我的源目录应该是什么?
  2. 我应该对此条目脚本进行哪些更改以使评分在我的计算机上本地工作?

谢谢,

4

1 回答 1

0

故障排除文档: https ://docs.microsoft.com/en-us/azure/machine-learning/how-to-troubleshoot-prebuilt-docker-image-inference

如果要构建封装模型及其依赖项的 Docker 映像,可以使用模型打包选项。输出图像将被推送到您工作区的 ACR。

您必须在推理配置中包含一个 Environment 对象才能使用 Model.package()。

package = Model.package(ws, [model], inference_config) package.wait_for_creation(show_output=True) # 或者 show_output=False 隐藏 Docker 构建日志。package.pull() 除了完全构建的镜像之外,您还可以生成 Dockerfile 并下载在您的环境之上构建镜像所需的所有资产。

package = Model.package(ws, [model], inference_config, generate_dockerfile=True) package.wait_for_creation(show_output=True) package.save("./local_context_dir")

于 2021-07-21T16:13:42.947 回答