问题标签 [createml]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - 使用 iOS SoundAnalysis 框架时出现“更新树格式错误”
我将SoundAnalysis 框架与使用 CreateML 创建的 CoreML 模型结合使用。
我能够使用SNAudioFileAnalyzer对嵌入在应用程序包中的音频文件执行分析,但在对来自麦克风的实时音频使用SNAudioStreamAnalyzer时不能。
使用以下代码时:
我在最后一行收到错误:
有人知道吗?现在没有太多关于 SoundAnalysis 框架的文章,所以在这个框架上感觉有些不自在。
swift - 使用 CreateML 和 MLRecommender 在 swift Playground 中出现项目 ID 错误
我知道这很模糊,但我仍在学习过程中。我正在尝试创建一个 MLRecommender。我正在输入数据表、用户列和项目列,但是当我运行应用程序以创建 .ml 文件时,出现此错误:
让推荐者 = 尝试 MLRecommender(trainingData: dataTable, userColumn: " id ", itemColumn: " priority ")
▿ 推荐模型中的项目 ID 必须编号为 0、1、...、num_items - 1。▿ 通用:1 个元素 - 原因:“推荐模型中的项目 ID 必须编号为 0、1、...、num_items - 1."
我一直在更改粗体值,甚至在我的数据表中添加了一个 id 部分,但还没有找到任何修复它的方法。感谢您的时间。这是我的数据 |MoviesTitles-(String)|Genre-(String)|FeaturedIn-(String)|id(Int)|
swift - CreateML - Activity Classifier - App Inference VS Create ML Inference 结果不同
编辑:
发现问题了!我在预测中放入的样本没有达到 windowSize,并且由于某种原因,当我创建 MLMultiArrays 时,它直接用随机值填充了数组。所以解决方案是用这样的零填充它
最初的问题:
我已经在 CreateML 中训练了一个活动分类器,我在测试中获得了 100% 的正确性,但是当我进行设备推断时,它的猜测正确率约为 10%,甚至更少。任何想法为什么?
我唯一的错误修复线索是了解 LSTM 的 stateIn 变量,现在我将数组保留为 nil 值。每次添加样本时是否需要进行预测,以便获得新的状态变量?任何指针都会非常有帮助
在我的推理代码下方。
ios - Swift 无法读取 csv
我正在尝试从 csv 文件中读取以进行 ML 表格分类并得到以下错误:
这是我在操场上使用的代码:
请帮忙!谢谢
swift - 该模型没有图像类型的有效输入特征 -> 创建 ML
我使用 Create ML 创建了一个 ML 模型,它是关于情感识别的。
作为输入文件,我上传了一个 CSV 文件。数据由 48x48 像素的人脸灰度图像组成。面部已自动注册,因此面部或多或少居中并在每张图像中占据大约相同数量的空间。任务是根据面部表情中显示的情绪将每张脸分为七类之一(0 = 愤怒、1 = 厌恶、2 = 恐惧、3 = 快乐、4 = 悲伤、5 = 惊讶、6 = 中性) .
我得到的模型有超过 87% 的准确率,但是当我在我的 Xcode 项目中使用它时,我得到以下错误:
你对如何解决这个问题有任何想法吗?
swift - 如何在 Swift(CreateML) 中读取文本文件的内容并将其解析为字典
如何从文件中读取字典?例如我的文本文件如下所示:
[“book": [-0.33568978, -0.42831486],...]
我想读它并放入字典
let myVector = [String:[Double]]()
swift - iOS 人脸识别持续学习
我的任务是找到在具有机器学习的应用程序上创建面部识别功能的最佳方法。此功能将用于将员工打卡到应用程序中。该功能将支持...
每个设备多个用户。
持续训练(因此当 mlmodel 识别出某人时,它会将新图像发送到后端的模型,并使用最近拍摄的新图像训练模型)
更新新课程(当新用户出现并想要使用该应用程序时,该应用程序将为他们拍照,将这些图像发送到后端的模型训练程序,该程序将训练 mlmodel 以识别新用户)
- 将新更新的模型发送到同一家商店的其他设备,以便他们也能识别员工
我试过的。
我已经修改了设备上的培训和 Knn。但据我了解,设备上的训练对此不起作用,因为设备上的训练模型最多只能有 10 个类,而 knn 并没有给出非常准确的结果......
使用 createML 进行手动训练和重新训练。这时候我...
- 在我的 Mac 上使用 createML 训练模型
- 使用 URLSession 将模型下载到应用程序
- 使用应用程序添加新用户或更新旧用户的照片
- 将新用户/更新的旧用户的图像发送到我的 Mac 上的 createML
- 用我曾经为所有用户拍摄的所有图像创建一个全新的模型
- 永远重复步骤 2-5
这工作得很好,但是对于应用程序将拥有的最终用户数量来说,它是令人难以置信的昂贵、耗时和不可行的,一遍又一遍地做。
我对机器学习还是很陌生,我觉得我做错了。我只是想看看是否有人知道更好/更有效的持续学习方法,这样模型就会记住它以前学到的东西,我可以用 createML 向它添加新的类或图像......或者如果有人可以指出我在正确的方向。
validation - 使用 CreateML 创建文本分类器模型时收到“抛出错误但未捕获:提供的验证数据必须包含...”
我正在使用 Playground 使用 CreateML 创建文本分类器模型并不断收到错误消息:
我的代码相对简单,使用数据表中的两列。textColumn 标记为“text”,labelColumn 标记为“class”:
我可以发现这与 Apple Developer Documentation 中提供的代码之间的唯一区别是,而不是
他们的文件是:
如果我尝试使用 Apple Developer Documentation 中的行,Xcode 的 11.2.1 版会失败。
提前感谢您提供的任何帮助。
swift - Swift Natural Language 和 CoreML:如何改进 NLTagger 来读取 Card Holder
我正在使用自然语言框架在信用卡上查找个人姓名。首先,我使用 Vision 框架阅读信用卡文本。然后我连接它。
所以我有包含与此类似的格式的文本:
我已经厌倦了在这样的字符串中简单地找到 .personalName NLTags 但它并不完美。
所以我试图在 macOS playeground 中使用 CreateML 来创建 CoreML 模型,该模型将用于在此类字符串中标记自定义 CARDHOLDER 标签。
需要多少示例标记数据来训练这样的模型才能使用?
现在我有这样一个比较简单的案例
然后我从中创建 CoreML 模型
然后我使用它:
但我认为我用于培训的数据不足。您知道要涵盖大多数信用卡案件需要多少此类数据记录吗?