问题标签 [createml]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
swift - Swift MLDataTable - 如何删除行?
我正在MLDataTable
从 .csv 文件创建一个并希望删除一些行,即特定列具有特定值的所有行 - 这可能吗?
swift - 使用 CreateML 在 Swift 中为机器学习创建数据表
Apple 最近发布了一个允许创建机器学习模型的框架。我对表格数据感兴趣,但我没有在网上找到任何示例。谁能提供一段有效的代码?我尝试了Apple提供的以下内容但没有成功:
特别是这段代码在第 4 行和第 15 行引发了以下错误:
错误:MyPlaygroundu.playground:9:22:错误:使用未解析的标识符“URL”尝试 pricer.write(到:URL(fileURLWithPath:“/Users/createml/HousePricer.mlmodel”))
ios - 在 CreateML 中重新导入 mlmodel
我正在 XCode 操场上测试新的很棒的 CreateML。我使用 MLImageClassifierBuilder() 和实时视图功能来创建我的模型,并保存它。现在我想将我的 .mlmodel 文件重新导入我的 Playground 以运行更多测试,但我没有找到方法。
当我关闭操场时,这对我来说似乎很明显找到了这种能力。
ios - CreateML 追溯图像
我担心 Apple 的 CreateML 的法律方面。
在某些情况下,需要带有人物的图像,并且对于欧盟的新 GDPR 2018,图像上的每个人都必须批准使用它。这可能会导致在 2018 年 5 月 GDPR 生效后拍摄的照片出现大量问题。解决此问题的最佳方法是什么?是否可以使用 CreateML 追溯哪些图像已用于创建 CoreML 模型?
先感谢您!
swift - 如何再次训练 ML?
在 Playground 中创建 MLImageClassifierBuilder() 并保存 ML 模型后,它在桌面上保存为“ImageClassifier.mlmodel”。但是如何再次在操场上打开该文件?
ocr - 如何使用 CreateML 正确训练 OCR 模型?我的不仅不好,而且毫无价值
我创建了一个数据集,每个字母有 1 个生成的训练图像,每个字母大约有 10 个真实的测试图像。
它们都是 10x14px,黑白(在预处理阶段很好地二值化)。
生成的模型将所有符号识别为“1”(甚至是测试集中的实际图像),所以基本上它根本不起作用。
谁能指出我正确的方向?
这是 CreateML 输出 -
machine-learning - 在 CreateML 中使用序列记录设备运动
所以我想训练一个 MLClassifier 来识别特定的设备运动。所以我所做的就是记录运动数据和我相应标记的非常记录的数据。当这并没有像我希望的那样奏效时,我开始意识到我必须记录“动作”本身,而不仅仅是暂时的。
所以我连续打包了 5 个数据集(字典),这是我的新训练功能。所以我想,但是在尝试训练我的新数据时,我看到了这个错误,试图创建我的分类器:
在“s”列中遇到的值属于“字典”类型,无法映射到分类值。分类值必须是整数、字符串或无。
现在我正在慢慢放弃......你们有没有人建议或知道为什么我不能使用序列(数组)作为特征?
...
顺便说一句,这是我的 JSON 的一些示例数据:
[{"s":[{"rZ":-1.0,"p":0.2,"aY":-0.0,"rX":1.5,"y":0.1,"r":-1.3,"aZ":0.2,"rY":-2.8,"aX":0.6},{"rZ":-1.9,"p":0.2,"aY":0.0,"rX":2.0,"y":0.2,"r":-1.4,"aZ":0.0,"rY":-3.2,"aX":0.5},{"rZ":-1.8,"p":0.3,"aY":0.0,"rX":2.4,"y":0.2,"r":-1.5,"aZ":0.9,"rY":-4.8,"aX":0.5},{"rZ":-1.6,"p":0.3,"aY":0.0,"rX":2.5,"y":0.3,"r":-1.6,"aZ":0.9,"rY":-3.8,"aX":0.6},{"rZ":-1.8,"p":0.3,"aY":0.1,"rX":2.2,"y":0.3,"r":-1.7,"aZ":0.1,"rY":-3.0,"aX":0.6}],"v":0}]
我用来创建模型的代码:
swift - 如何为 MLDataTable 中的列定义/更改 MLDataValue.ValueType
我正在MLDataTable
从给定的 .csv 文件加载一个。根据输入文件的内容自动推断每列的数据类型。
稍后处理表格时,我需要可预测的显式类型。
如何在加载文件时强制执行某种类型,或者在第二步中更改类型?
简化示例:
swift - 使用 CoreML 从模式预测结果
我是任何与机器学习相关的新手,想知道如何,以及是否有办法从模式中预测简单结果,例如,我有一个[1, 2, 3, 1, 3, 2, 1]
. 用户执行操作 3,数据集变为[1, 2, 3, 1, 3, 2, 1, 3]
。我如何预测用户接下来会做什么?
我打算将它与CoreML
. 我在 Apple 的开发者网站上找到了这个。但是,我相信这是根据模型提供的数据进行预测的。(我假设它将与 CreateML 一起使用)。
解决我的问题的推荐方法是什么?(对不起我的英语,如果需要,我会尽量澄清更多)。谢谢 :)
python - 如何开发一个可以识别作曲家歌曲的神经网络
我最近承担了一个项目来测试机器学习算法的效率。然而,我很难找到一个平台来实现我的想法。这是我正在尝试做的事情。
我正在尝试创建一个可以识别作曲家古典音乐作品的神经网络。我将使用一组古典剪辑来训练它,每个剪辑时长 5 秒,由 5 位不同的作曲家完成。总共将有 25 首这样的歌曲。该算法无需任何集成到应用程序中,必须能够识别歌曲。我对此算法有一组特定的要求。
1:它必须可用于 MacOS Mojave 或 High Sierra,作为 Python 编程语言中的应用程序或库。
2:它必须有一些关于如何在其中创建神经网络的在线文档。
3:它必须能够处理听觉刺激。(例如,Xcode 10.1 无法使用 MLClassifier 处理听觉刺激。)
4:用户必须能够轻松更改算法中的隐藏层数。
如果所有这些要求都得到满足,并且如果我能够通过通信解决其他问题,我的问题就会得到解决。我期待与 Stack Overflow 社区的成员合作以找到解决方案。感谢您提供的任何帮助。
此致, 苏伦·格里高利安