我在 Create ML 应用程序中创建了一个图像识别 .mlmodel 文件。我现在在 iOS 应用程序中使用它。
它在 iPhone 11 和 iPhone 12(以及相应的机型)上运行良好,但在 iPhone 8、iPhone 8 Plus 和 iPhone X 上运行良好。可能还有其他机型无法运行,但到目前为止我可以确认这些机型。
我正在使用的代码是:
do {
let prediction = try self.model.prediction(image: pixelBuffer!)
} catch {
print("\(error)")
}
在这不起作用的模型上,控制台中打印的错误是:
Error Domain=com.apple.CoreML Code=1 "Predicted feature named 'classLabel' was not output by pipeline" UserInfo={NSLocalizedDescription=Predicted feature named 'classLabel' was not output by pipeline}
由于缺乏有关 CoreML 的文档,我无法找到有关此错误的可靠跟踪。SO上有一些随机帖子,Turicreate Github(Core ML 运行的底层 Python 库)上也有 Git 问题,但似乎没有任何东西可以直接回答这个问题。
任何帮助将不胜感激。谢谢!
根据这篇 Apple Developer 论坛帖子,配备 A7 处理器的设备与之前的设备之间可能存在一些差异。它有可能默默地失败吗?
https://developer.apple.com/forums/thread/93105
在 ML 模型的输出类中,有几行代码如下:
lazy var classLabel: String = {
[unowned self] in return self.provider.featureValue(for: "classLabel")!.stringValue
}()
这是在模拟器上构建时发生的自动生成的文件中,因此即使在文本编辑器中编辑文件也会在每次构建时被覆盖。我认为,如果可能的话,输出模型的输出可能会有所帮助,以查看它实际返回的内容。
我已将其追踪到功能:
open func prediction(from input: MLFeatureProvider, options: MLPredictionOptions) throws -> MLFeatureProvider
在 MLModel.h 的 MLModel 类声明中。这是引发错误的地方;到目前为止,我已经记录了输入数据,这是引发错误的函数,因此它来自框架本身。