问题标签 [createml]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
swift - MLDataTable 中的多个目标列 - Swift 中的 CreateML 框架
我想使用 Create ML 框架创建一个具有一个功能和三个目标的 MLDataTable。例如,假设我正在创建一个日历应用程序,该应用程序具有添加快速事件的功能,例如本机 Mac 日历应用程序。我有一个专题栏文本,其中包含诸如周六早上钦奈尼赫鲁体育场的俱乐部比赛之类的字符串。我想要三个目标列title、location和time来获得Club game , Nehru Stadium, Chennai和24 Nov 2018, 08:00的值。
另外,请让我知道是否有任何其他方法可以使用 CreateML 框架实现相同的功能。
swift - 无法按名称访问 MLDataTable 列
我通过读取 CSV 创建了 MLDataTable。当我打印 MLDataTable 时,它似乎有列名。
但是当我尝试访问它们时,它说没有具有这些名称的列
swift - 无法使用 MLDataTable 访问 .csv 数据
我正在尝试.csv
使用框架 CreateML 读取文件的内容来读取 csv 数据。
即使文件存在,以下代码也会生成错误:
我收到以下错误消息:
线程 1:致命错误:“尝试!” 表达式意外引发错误:CreateML.MLCreateError.generic(原因:“没有与指定路径对应的文件(file:///Volumes/MAC%20HDD/Data/Data.csv)”)
我几乎检查了所有内容,但没有得到任何结果。我究竟做错了什么?
machine-learning - 一个好的数字识别数据集是什么样的
我正在尝试创建一个 iOS 应用程序,当从设备相机获取图像时,它能够识别从 0 到 9 的数字。我从检测数字开始,在我的情况下,它总是在一个蓝色圆圈中。我设法使用 OpenCV 进行了非常准确的圆形检测。应用程序将在此时拍摄图像,扫描蓝色圆圈,将其剪切到圆圈所在的部分,将其变为黑白和更高的对比度,以便只有纯黑色(背景)和纯白色(数字)。结果是一个非常清晰的数字图像。最后一步是使用简单的图像分类器识别图像。
所以我试图重新创建这样的“黑色背景上的白色数字” - 数据集的图像。我使用具有相同字体的数字图像,就像在现实中一样,添加随机对比度、随机亮度、随机比例,添加一个蓝色圆圈并将其提供给 OpenCV 中的函数,然后返回一个图像,我保存在我的硬盘。我创建的数据集每个数字有超过 10.000 张图像(因此总共超过 100.000 张)。然后,我使用 CreateML 为该数据集训练图像分类器。然而,实际应用程序中带有此类数字的实际照片的准确性非常差。
所以我尝试了不同的方法。这个想法是改变除了数字之外的所有图像,以便模型学习相似之处。我通过向图像添加随机的白色和黑色像素、旋转和缩放它来做到这一点。最后,我应用了来自 OpenCV 的相同黑白滤镜,并将图像保存在我的硬盘上。这个模型比上面的还要糟糕。
您可以在此处找到两个数据集的示例图像: https ://1drv.ms/f/s!Ao1FRfDXc7vKklCxq3n7NC6APImP
所以这是我的问题:
1)创建一个能够高精度识别数字的机器学习模型不是很容易吗?
2) 在这种情况下,我的数据集应该是什么样子,以优化模型的准确性?
3)您会推荐每个数字多少张图像用于训练?
swift - CreateML 标记时出现“执行被中断”错误
我创建了一个简单的 macOS Playground 来制作 coreML 文本分类器,如下所示:
但我收到“执行被中断”错误。
这是过程中的日志:
我该如何解决?
ios - 如何在这个项目中实现新的 .mlmodel
我正在尝试创建一个使用核心 ml 模型的手写数字识别器。我正在从另一个类似项目中获取代码: https ://github.com/r4ghu/iOS-CoreML-MNIST
但我需要将我的 ml 模型合并到这个项目中。这是我的模型:(输入图像为 299x299) https://github.com/LOLIPOP-INTELLIGENCE/createml_handwritten
我的问题是要在类似项目中进行哪些更改,以便它包含我的 coreml 模型
我尝试将形状更改为 299x299 但这给了我一个错误
swift - CoreML:为什么预测是一个数组?
考虑这样的csv
文件:
和这样的代码
// 打印(数据表)
prediction
csv
是一个与文件本身元素数量相同的浮点数组。
四个问题:
- 为什么它是一个数组?
- 为什么漂浮?
- 为什么数组具有与输入相同数量的元素
csv
? - 这个数组到底代表什么?
swift - 如何在 Xcode 10 中创建 MLImageClassifier
我正在尝试构建机器学习 -在10.1 Playground 中Image Recognition
使用,但我在将数据放入模型时遇到了一些问题。Create ML
Xcode
我有一个图像编号从 1 到 1336 的.csv
文件夹和一个包含 2 列的文件(图像名称和图像分类)。
我不知道如何将其放入模型中。
到现在为止我有这个:
avfoundation - CreateML 结果在应用程序中很糟糕,而在操场上却很完美
我正在尝试用图像分类训练 MLModel。我创建了一个应用程序来创建图像以用作训练数据(最后将使用相同的过程来获得预测)。我从 AvCaptureSession 获得 CVPixelBuffer,将其转换为 UIImage 并将其以 JPEG 格式保存到文档目录中。后来我给它们贴上标签,并在操场上用 CreateML 训练 MLModel。由于我收集了数千张图像,因此在操场上的结果是 %100。
但是当我将这个模型集成到我的应用程序中并以相同的方式提供它时,结果很糟糕。我得到 CVPixelBuffer,将其转换为 UIImage(裁剪)并将裁剪后的图像转换为 CVPixelBuffer 并将其提供给模型。我必须将 UIImage 转换为 CVPixelBuffer,因为 CoreML 模型只有 CVPixelBuffer 除外。我使用这种方法将 UIImage 转换为 CVPixelBuffer:
我认为我的结果很差,因为 CoreML 模型不喜欢转换后的 CVPixelBuffer。
有人有什么建议吗?
swift - CreateML 保存 .mlmodel 失败
我创建了 Cocoa 应用程序(不是游乐场)并尝试创建和保存 MLRegressorModel。但是当我尝试保存成功创建的 .mlmodel 时,出现错误:
错误,当我使用 try! :
如何将 .mlmodel 保存到磁盘?现在我使用代码: