问题标签 [mlmodel]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
xcode - 加载 mlmodel 时出现机器学习错误“No known class for loading model type > MLModelType_pipelineClassifier”
我已经用 Playground 创建了一个 mlmodel 并导入到我的 Xcode 项目中,但当它运行时我收到了这个错误。
ObjectClassifier[24610:8307770] [coreml] MLModelAsset: modelWithError: load failed with error Error Domain=com.apple.CoreML Code=3 "No known class for loading model type MLModelType_pipelineClassifier" UserInfo={NSLocalizedDescription=No known class for loading model type MLModelType_pipelineClassifier}
为什么在 Playground 中创建 mlmodel 时自动创建的代码会导致此错误?
xcode - 模型类生成禁用:在项目中禁用(CoreML 代码生成语言设置为“无”
我已经从苹果的开发者网站下载了这个项目:https ://developer.apple.com/documentation/vision/recognizing_objects_in_live_capture
但是当我检查 mlmodel 对象时,我在模型类下得到了这个错误(?)。有什么可做的吗?
xcode - ITMS-90171 归档时由 MLModel 文件引起
我正在尝试将一个应用程序提交到包含一组.mlmodel
文件的商店。
当我将应用程序存档并将其上传到应用程序商店时,我会得到一个错误列表,其中一个对应.mlmodel
于捆绑包中的每个文件。
此类错误的一个示例是:
“无效的捆绑包结构 - 不允许使用二进制文件‘MyApp.app/Frameworks/MyFramework.framework/AIModels.bundle/bot2emb51.o’。除了受支持捆绑包的有效 CFBundleExecutable 之外,您的应用不能包含独立的可执行文件或库.有关 iOS 应用程序包结构的信息,请参阅https://developer.apple.com/go/?id=bundle-structure上的 Bundle Programming Guide 。”
在这种特殊情况下,我有一个标记为包含在AIModels
名为bot2emb51.mlmodel
. 我不确定为什么将文件编译成目标文件,我认为它会被复制为mlmodel
文件。
是否有我需要更改的 Xcode 设置,或者我可以在编译后设置的标志来解决这个问题?
swift - 下载自定义 CoreML 模型并加载以供使用 [Swift]
我正在创建一个基于神经网络的应用程序,CoreML
模型大小约为 150MB。所以,很明显我不能在应用程序中发布它。
为了克服这个问题,我了解到这篇文章,提到您可以CoreML
在设备上下载和编译模型。
我做了并且我在我的设备上下载了,但问题是我不能像原始模型那样做预测。就像,原始模型UIImage
作为输入但是MLModel
是MLFeatureProvider
,任何人都可以解决我如何对我的模型进行类型转换并将其用作原始模型?
ios - 如何使用 Playground 获取创建的 mlmodel 的边界框数据
我们创建了一个带有游乐场的 mlmodel,例如https://developer.apple.com/documentation/createml/creating_an_image_classifier_model。
然后我们使用以下代码获取该 mlmodel 中对象的边界框数据。但是在“结果”中,我们只能得到我们建模的预测值和对象名称,即使那是退出但不是我们的目标。
print("detectOurModelHandler (results)") 向我们展示了我们的 mlmodel 中的所有对象和预测值,它是 VNClassificationObservation。
所以我们没有盒子数据也就不足为奇了。
所以问题是如何创建模型作为 VNRecognizedObjectObservation,我认为?
根据https://developer.apple.com/documentation/vision/recognizing_objects_in_live_capture我们应该得到边界框数据。
但我们不能。甚至 print("detectOurModelHandler 2") 也不会像 dump(objectBounds) 那样被调用。
我们顺便在 captureOutput 中调用 findOurModels。我们现在称它为 1 秒一次来测试我们的模型。
ios - 在 iOS 上检查人脸边缘角度
我正在尝试在 iOS 上开发一个系统,以确保显示面部的所有角度。基本上,复制与创建人脸 ID 相同的向导苹果。我今天开始玩并遵循一些关于 ARKit 的教程,实现 ARSCNViewDelegate.didUpdate 委托方法并检查 ARFaceAnchor.transform,尽管我很难理解 4x4 矩阵。
这是正确的方向吗?我错过了什么吗?谢谢!
ios - 如何减少 iOS 应用的 Core ML 模型?
我有一个将近 500mb 的模型,客户想要在他们的 iOS 应用程序中实现它。世界上如何实现这样的模型,它的大小是多少?它似乎是一个相当流行的模型,但没有任何文档或帖子表明人们在移动应用程序中实际使用该模型。是否有将模型托管在某处并将客户端指向托管模型的服务器?任何压缩模型的选项?很想听听您为解决此问题所做的工作。
该模型在这里找到:https ://coreml.store/cnnemotions
python-3.x - 我正在尝试将 .pb 文件转换为 .mlmodel 文件。我收到错误消息“Tensorflow 图不包含具有此名称的张量”
我尝试使用 tfcoreml 并且错误是:
正在加载 TF 图...
2018-12-05 11:16:50.591360: I tensorflow/core/platform/cpu_feature_guard.cc:141] 您的 CPU 支持未编译此 TensorFlow 二进制文件以使用的指令:AVX2 FMA
已加载图表。通过运行它从图中收集所有“常量”操作......完成。回溯(最近一次调用):文件“converter.py”,第 4 行,在 output_feature_names = ['softmax:0'])文件“/root/tensorflow-for-poets-2/tf_files/tf-coreml/tfcoreml/ _tf_coreml_converter.py",第 586 行,转换 custom_conversion_functions=custom_conversion_functions) 文件 "/root/tensorflow-for-poets-2/tf_files/tf-coreml/tfcoreml/_tf_coreml_converter.py",第 272 行,在 _convert_pb_to_mlmodel raise ValueError("output名称:{},已提供,但 Tensorflow 图不包含具有此名称的张量。".format(given_out_name)) ValueError:输出名称:softmax:0,已提供,但 Tensorflow 图不包含具有此名称的张量这个名字。
ios - 隐藏 CoreML 模型 (.mlmodel) 文件
我正在开展一个项目,该项目涉及将 AI 对象检测功能添加到现有的 iOS APP。我能够训练自己的 DNN 模型并转换为 CoreML 的 .mlmodel 格式。
现在我需要将包含 .mlmodel 文件的工作转移给另一个开发人员进行集成。但是,我不希望他们在这个项目之外使用我训练有素的 .mlmodel 文件(根据合同)。有什么方法可以让我“隐藏” .mlmodel 文件,使它们只能用于这个特定的应用程序,而不能简单地复制和保存以供其他用途?
我对 iOS 库和框架进行了一些快速研究,但我仍然不确定这是否是我正在寻找的解决方案。