问题标签 [mlmodel]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
64 浏览

machine-learning - coremltools管道输入节点未连接到模型的其余部分

我建立了一个编码器/解码器模型(在 PyTorch 中),保存为两个单独的mlmodel对象。coremltools.models.pipeline为了提高效率,我想把这些放在一起。将两个输入模型保存到磁盘后,这就是我用来构建管道的方法:

管道的创建运行良好,但保存的模型无法连接输入——即,查看 Netron 中的模型,我看到distorted_input节点只是自行挂起。管道的其余部分似乎是正确的。

有什么想法吗?

0 投票
2 回答
704 浏览

azure - 根据更新的数据集自动重新训练分类模型

我们在 Azure ML Studio 中创建了一个实验,根据系统数据和用户数据预测一些调度活动。系统数据包括 CPU 时间、堆使用率和其他系统参数,而用户数据有用户的活动会话和一些用户特定的数据。我们的实验运行良好,返回的结果与我们预期的非常相似,但我们正在努力解决以下问题:-

1)我们的实验没有考虑更新数据来训练其模型。

2)每次我们都需要手动上传数据并重新训练模型。

我想知道是否真的可以使用一些 Web 服务或使用 Azure DB 将实时数据提供给 azure 实验。我们正在尝试更新我们在 Azure 存储中创建的 CSV 文件中的数据。这可能会解决我们的第一个查询。

现在,应该考虑这些更新的数据来定期自动训练模型。

如果有人可以帮助我们解决这个问题会很棒吗?

注意:我们使用在 Azure Studio 帮助下创建的 Web 服务来使用我们的模型。

0 投票
0 回答
194 浏览

ios - 使用 Turicreate 进行 iOS 人脸识别

我用 Vision Framework 实现了人脸识别。
该模型使用 turicreate 进行训练。

https://github.com/apple/turicreate

但准确度并​​不好。
我正在使用同一个人的 200 张面部图像来训练模型,并使用 turicreate 在相机视图中识别他。
但对于所有面孔,置信度都在 90% 以上。

你对我有什么建议吗?
谢谢

0 投票
1 回答
344 浏览

python - Azure ML Studio 环境中的 Python 自定义模型错误 0085,在本地环境中运行良好

Azure ML Studio Environment 在使用自定义 python 模型中的 pickle 文件时引发以下错误。python 本地模型,pickle 文件在本地环境中可以正常工作,但在 Azure ML Studio 环境中不能正常工作

错误 0085:脚本评估期间发生以下错误,请查看输出日志以获取更多信息: ---------- Python 解释器的错误消息开始 ---------- Caught exception while执行函数: Traceback(最近一次调用):文件“C:\server\invokepy.py”,第 199 行,批量 odfs = mod.azureml_main(*idfs) 文件“C:\temp\b1cb10c870d842b9afcf8bb8037155a1.py”,行49、在 azureml_main 返回 DATA,model.predict_proba(DATA) 文件 "C:\pyhome\lib\site-packages\sklearn\ensemble\forest.py",第 540 行,在 predict_proba n_jobs, _, _ = _partition_estimators(self. n_estimators, self.n_jobs) 文件“C:\pyhome\lib\site-packages\sklearn\ensemble\base.py”,第 101 行,在 _partition_estimators n_jobs = min(_get_n_jobs(n_jobs), n_estimators) 文件“C:\pyhome\lib\site-packages\sklearn\utils__init__.py",第 456 行,在 _get_n_jobs 如果 n_jobs < 0: TypeError: unorderable types: NoneType() < int() Process returned with non-zero exit code 1 --- ------- Python 解释器的错误信息结束 ----------

有什么遗漏吗?

Python Pickle 文件适用于本地环境。

python自定义模型需要在azure ml studio中使用,部署为web服务,与本地模型输出相同

4月17日更新1:

Python 版本 2.7.11 在本地和 Azure ML Studio 中是相同的,但发现本地 [0.18.x] 和 Azure ML Studio [0.15.x] 中的 sklearn 版本不同,其中 train_test_split 不同,如下代码:

1) 现在,如何在 Azure ML Studio 中将 sklearn 包更新到最新版本?或者另一种方法是降级我的本地sklearn,尝试一下,将试验出来。

2) 另一个练习是使用 MDF [MulticlassDecisionForest] 算法在 Azure ML Studio 中创建模型。并且本地使用的是RFC [RandomForestClassifier]算法,但是两个输出完全不同,不匹配?

以下代码在 sklearn 版本 0.18.x 的本地环境中使用 RFC 算法: ## 随机森林分类器在本地环境中使用 sklearn 版本 0.18.x from sklearn.ensemble import RandomForestClassifier

3) 使用 sklearn 版本 0.15.x 的较低版本的 Azure ML Studio 执行 Python 脚本复制了本地 python 代码,这也产生了相同的本地输出,除了很少的测试数据集行。现在,如何将 Python 脚本中的模型作为未训练模型输入训练模型组件?还是在 DataSet 中写入 pickle 文件,并作为自定义模型使用?

非常感谢您的宝贵意见。

0 投票
0 回答
181 浏览

swift - 在 Xcode 中使用 MLMultiArray 作为 mlmodel 的输入

我正在努力使用 CoreML 工具在 Xcode 中实现我的模型。

实现的模型如下所示:

xcode中的mlmodel

viewController 的代码如下所示:

我得到的错误是:[coreml] 验证输入失败。

知道我做错了什么吗?在此先感谢您的帮助

亚历克斯

0 投票
1 回答
158 浏览

python - “过滤器”对象在评估模型时没有“附加”属性

我正在尝试制作一个 MLModel 以在我的应用程序上使用它,并且我使用 python 来完成它,因为我想用 evalute() func 获得confusion_matrix

这是我的python代码:

我之前测试了所有这些并且它们运行良好,只是当我运行时 model.evaluate(test_data)出现错误

我的错误是:

我在macosx highSierra(10.13.6)上运行它(因为我的macbook是2011,我无法将它更新到10.14),python 3.6(带有conda),我通过pip安装了turicreate。

0 投票
1 回答
236 浏览

ios - 从 MLModel 处理 MLMultiArray

mlmodel在我的项目中使用 a 来检测对象。模型的输入是Image (Color 300 x 300),输出是MultiArray (Double)MultiArray (Double 4 x 1917 x 1)。我做到了VNCoreMLRequest,我得到的输出与上面提到的完全一样。MLMultiArray在这里,我需要从输出中向用户显示对象名称和置信度。现在,问题是如何解码它,如何从MLMultiArray. 我从过去 3 天开始研究,没有用。

0 投票
0 回答
134 浏览

swift - 在 Watchkit App Extension 中初次调用我的gestureclassifier.mlmodel 时出现以下运行时错误

在初始读取分类器文件 (.mlmodel) 期间,我在 Watchkit 扩展中收到以下运行时错误:

“WatchKit 应用程序扩展 [441:999198] [espresso] [Espresso::handle_ex_] 异常 = 不支持的引擎类型”

我认为这是 ML 的版本问题,所以我从 Xcode 10.13 升级到 11,但仍然遇到相同的错误。当我将 ML 代码从 iPhone 的 ViewController 移动到 Watchkit Extension iWatch 的 InterfaceController 时,我才开始收到此错误。

我还注意到自动生成的分类器(.mlmodel)文件在不同的部分有不同的支持设备版本,为什么会这样?另外,我现在正在运行 MacOS Catalina Beta (10.15),但在 MacOS 和 Xcode 10.14 的 Beta 升级之前也发生了此错误。

@available(macOS 10.13,iOS 11.0,tvOS 11.0,watchOS 4.0,*)@available(macOS 10.14,iOS 12.0,tvOS 12.0,watchOS 5.0,*)

我自动生成的“GestureClassifier.mlmodel”文件的一部分似乎产生了错误,并且还显示了以下两个“@available”版本差异:

0 投票
1 回答
271 浏览

cmake - 如何编写 CMakeLists.txt 以将 .mlmodel 添加到 xcode 项目

我有一个detect_model.mlmodel自己训练的。我想在 xcode 中使用它,但我不想手动将它添加到我的 xcode 项目中。我试图编写 CMakeLists.txt 来管理我的 xcode 项目。但是如何在 CMake 文件中写入以添加detect_model.mlmodel到我的 xcode 项目并生成detect_model.h头文件?

我曾尝试使用set(mlmodel detect_model.mlmodel)and add_library(dst ${mlmodel}),但它不正确。

预期的结果是我可以使用 CMake 添加detect_model.mlmodel到 xcode 项目并detect_model.h自动生成。

0 投票
1 回答
707 浏览

python - 如何在 Swift CoreML 中使 MLModel 可更新?

我正在尝试在我的应用程序中实现可更新模型的新 CoreML 3 功能,但我无法弄清楚。

我在 Keras 中创建了一个具有 2 层的神经网络,并将其转换为核心 ML 模型。然后我将模型包含到我的 iOS 项目中。然而self.testmodel.model.modelDescription.isUpdatable总是错误的,我无法理解苹果文档。

集成到 Swift 我现在可以使用模型,但不能更新它

为什么我的模型不可更新,我该如何更改?