问题标签 [mlmodel]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - 预热 CoreML MLModel
在我对MLModel
. 似乎一旦您运行第一个预测,它就会加热模型。找不到任何关于它的官方信息。
预热模型的正确方法是什么?在应用程序启动时使用虚拟数据在异步线程上调用它?
ios - CoreML MLModel 预测进度
我们正在尝试了解如何在CoreML
MLModel
.predict
UI 方面为我们的用户可视化“等待时间”。
有什么方法可以估计时间或得到MLModel
预测的实际进度吗?
coreml - 是否可以使用 coremltools mlmodel 预测一批图像?
是否可以在 mlmodel 中预测批次?如果是,如何?
如文档中所述,我将 keras 模型转换为 mlmodel :
接下来,我加载一个图像,将其调整为 (224, 224),将其转换为 PIL,并在预测中使用它:
是否可以做一批图像而不是单个图像?
我试图在转换中定义一批输入类型:
但它似乎并没有改变模型的输入。
- 当我尝试为它提供图像的numpy数组
BATCH_SIZE
((8, 224, 224, 3)
)时,我收到:
- 当我尝试向它提供我收到的PIL 图像列表时:
BATCH_SIZE
- 当我使用单个图像进行预测时,输出与带有
BATCH_SIZE=1
.
是否可以预测批次?谢谢
ios - 使用第一个 MLModel MLMultiArray 输出作为第二个 MLModel MLMultiArray 输入
我有两个CoreML
MLMModels
(从 转换而来.pb
)。
第一个模型输出 a Float32 3 × 512 × 512
MLMultiArray
,它基本上描述了一个图像。
第二个模型输入是 a Float32 1 × 360 × 640 × 3
MLMultiArray
,它也是一个图像,但大小不同。
我知道理论上我可以将第二个模型输入转换为图像,然后将第一个模型输出转换为图像(预测后),调整大小,然后喂给第二个模型,但是感觉效率不是很高已经是模型造成的明显延迟,所以我正在努力提高性能。
是否可以“调整大小”/“重塑”/“转置”第一个模型输出以匹配第二个模型输入?我正在使用https://github.com/hollance/CoreMLHelpers(由令人惊叹的 Matthijs Hollemans 提供)助手,但我真的不明白如何在不破坏数据并尽可能保持高效的情况下做到这一点。
谢谢!
coreml - VNImageRequestHandler 可以接受 MLMultiArray 作为输入吗?(无需转换为 UIImage)
我的应用程序中有两个MLModel
s。第一个是生成一个MLMultiArray
输出,该输出旨在用作第二个模型输入。
因为我试图让事情尽可能地表现最好。我正在考虑使用第VNImageRequestHandler
一个模型输出(常规图像初始化程序。MLMultiArray
Vision
像这样的东西:
或者我必须经历来回转换?试图减少处理延迟。
ios - 由于内存问题,MLModel 在初始化时崩溃应用程序
我看到从 Keras/TensorFlow/PyTorch 等转换的模型出现意外行为。
当MLModel
在2-3GB
.
即使对于重量小于1MB
.
此外,使用MLModelConfiguration
,更改computeUnits
似乎会稍微改变内存使用情况,.cpuOnly
通常需要最少的内存。
但是看在上帝的份上,我不知道为什么会发生这种情况,是不是我转换他们的方式有问题?那具体层能引起吗?有没有人可以解决这个问题?
这是我们转换的模型: https ://github.com/HasnainRaz/Fast-SRGAN
coreml - 从 iOS 设备导出设备上训练的模型
我想在 iOS 设备上训练图像分类模型。是否可以从应用本地数据中导出经过训练的模型?
ios - CoreML MLModel 在低功耗电池模式下运行速度较慢
这非常简单,但是预测MLModel
何时处于低功耗模式会导致结果慢得多。
我试图了解是否有办法绕过它,CIContextOption
类似于.allowLowPower
.
我的直觉告诉我可能不会,我能做的最好的就是检测低功耗模式并显示某种 UI,告诉用户注意较慢的结果。除此之外,我们还能做些什么?
deployment - Azure:部署集成在数据块上的 ML 模型的 Ansible 角色
我使用 python notebook 开发了 Azure Databricks 中历史数据的 ML 预测模型。这意味着我已经使用 python notebook 在 Databricks 中完成了数据提取、准备、特征工程和模型训练。我几乎完成了它的开发部分,现在我们想使用 ansible 角色将 ML 模型部署到生产中。