问题标签 [mlops]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
bluedata - bluedata mlops 预测 - “NoneType”对象不支持项目分配
我正在调用 BlueData MLOPS 预测 API 来获得我的模型的分数,但我得到了以下响应:
这可能是什么原因造成的?
bluedata - BlueData MLOPS - PermissionError:[Errno 13] 权限被拒绝
我在 BlueData 4.0 上创建了一个 MLOPS 项目并安装了 Project Repo (NFS) 文件夹。我在 Centos 7x 上创建了 NFS 服务,如下所示:
我现在正在尝试访问存储在 NFS 项目存储库中的数据集,但收到以下错误:
PermissionError: [Errno 13] Permission denied: '/bd-fs-mnt/path/data.csv'
知道如何解决这个问题吗?
git - 是否有必要从我们的 CI 管道提交 DVC 文件?
DVC 使用 git 提交来保存实验并在实验之间导航。
是否可以避免在 CI/CD 中进行自动提交(以dvc repro
在 CI/CD 端保存数据工件)。
google-colaboratory - 在 Google Colab 上设置 MLflow
我经常使用 Google Colab 来训练 TF/PyTorch 模型,因为 Colab 为我提供了 GPU/TPU 运行时。此外,我喜欢使用 MLflow 来存储和比较训练的模型、跟踪进度、共享等。将 MLflow 与 Google Colab 一起使用的可用解决方案有哪些?
machine-learning - MLOps - 如何刷新 ML 模型
下图显示了我们公司用于管理模型生命周期的两条管道。
- 第一个管道“应用程序”涉及创建托管模型并具有推理逻辑的应用程序组件。
- 第二个,“模型”,是一个以二进制格式生成模型的管道。
(模型和应用程序)将一起部署在我们的编排器(kubernetes 集群)中。
我处于应用程序逻辑不会改变但模型会改变的情况。我会发现自己处于以下情况。
我想有两种方法可以管理协调器上的运行时模型刷新(希望有人建议我其他我没有考虑过的可能性):
- 在应用程序逻辑中;代码通过采用新模型通过线程管理刷新。
- 优点:没有生成新容器
- 缺点:能够引入错误。
- 通过管道;管道必须由事件触发(在我的情况下是 git 分支上的合并),并通过执行滚动更新来引入容器。运行时的新容器将加载新模型。
- 优点:现有流程
- 缺点:模型的每个新版本都应该提供容器的新构建,即使应用程序逻辑没有改变。
[问题] 是否有人可以建议我针对这些案例(可能通过图像上的标签系统)的任何最佳实践?
谢谢基普利科
python - 如何将数据发送到服务器进行预测 - MLflow
我可以使用以下命令创建 ml 模型服务器
在文档中给出了使用 curl 命令发送预测,如下所示:
我用 8000 替换了端口号,但出现错误。
请有人帮我解决这个问题。
azure - 带有 MLOps 的 AutoML 导致我出现错误 - 消息:找不到提供的模型路径
我正在尝试使用 Azure 的 automl 功能使用简单的数据集来训练模型,该数据集在手动或通过笔记本时工作正常,但不能在 azure devops 管道中工作。创建了一个 azure devops 管道,其中包含与 ML 工作区的所需服务连接。
下面的python代码状态需要的文件已上传,但在运行以下命令进行注册时我无法找到模型,而下面所述的代码上传了它:
我正在尝试通过 az cli 命令而不是通过 python 来训练模型。任何建议。参考https://github.com/SaschaDittmann/MLOps-Lab作为参考,但已更改为 automl 部分,因为此 git repo 不适用于 auto ml,但其余步骤相同。
az ml 模型寄存器 -g $(azureml.resourceGroup) -w $(azureml.workspaceName) -n $(model.Name) -f metadata/run.json --asset-path outputs/models/abc.pkl -d " test" --tag "data"="test" --model-framework ScikitLearn -t metadata/model.json
上面的命令总是给我:- {'Azure-cli-ml Version': '1.12.0', 'Error': ModelPathNotFoundException: Message: Could not locate the provided model_path outputs/models/abc.pkl
##local_run 是 automl 的另一个运行 ID,run.getContext() 是当前运行 ID。
kubernetes - Kubeflow-kale :- 如何集成 kubeflow-kale 扩展以在单独的 Kubeflow 管道集群上运行管道
我目前正在尝试在未安装 Kubernetes 和 kubeflow 的本地 jupyterlab 服务器上使用 kubeflow kale jupyter 扩展,并尝试在 GCP AI 管道服务器或任何其他 Cloud Kubeflow 管道服务器上运行我的代码管道。我可以通过 kubeflow 管道 SDK 来做到这一点(因为它具有添加主机名详细信息的功能)。但是当试图通过 kubeflow-kale 扩展来实现时,它不起作用。据我所知,我们需要提供我无法在 kubeflow-kale UI 扩展下拉字段中添加的 Kubeflow 管道服务器的主机名。我探索了很多 kubeflow-kale 材料和博客,但无法找到解决方案。几乎所有关于 Kubeflow-kale 实现的博客和资料都在 Kubeflow 托管的笔记本服务器上完成
任何人都可以帮助我解决有关 Kubeflow-kale 的以下疑问:-
- Kubeflow-kale 仅支持 kubeflow 托管的笔记本服务器?
- 如果否,我们如何提供在 GCP AI Pipelines 等远程服务器上运行管道的选项?
grafana - 使用 kubeflow 的 Grafana
我正在尝试将 Grafana 与我的 kubeflow 集成以监控我的模型。
我不知道从哪里开始,因为我无法在文档中找到任何内容。
有人可以帮忙吗?
server - 如何上传一个jupyter notebook服务供不同用户使用?
我需要上传将由多个用户使用的 jupyter notebook 服务。
我需要满足的要求是:
- 隔离:有必要确保用户无权访问其他用户的库。
- Authen:使用该服务的任何人都需要进行身份验证。
综上所述,如何上传类似于google colab的服务?
笔记:
- 我没有容器编排服务
- 我工作的环境是私有云,完全在本地。
- 我有大量的计算资源
- 该解决方案只需要使用开源技术。