在 log_model 调用中生成的 runId 需要在 mlflow 模型服务中访问
我正在尝试以最低限度运行 mlflow 来部署自定义模型
迈出的第一步:我使用 log_model 观察保存模型:工件已正式保存在 mlruns
采取的第二步:我能够使用 mlflow 模型服务 -m 运行:观察:服务器在 5000 处启动
采取的第三步:我能够运行 curl 调用来预测观察:预测返回
问题:我如何将 Step1 中生成的 runId 传递给 Step2 即 log_model
请告知上述用例的推荐工作流程(是否需要使用跟踪/mlflow服务器)等。
mlflow.pyfunc.log_model(artifact_path="artifacts", python_model=add5_model)
问题:如何访问上述log_model返回的runId来调用mlflow模型serve -m runs