问题标签 [createml]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 使用 Apple Create ML 应用程序创建的模型的输入
使用 Apple 的 Create ML 应用程序(Xcode 附带的开发工具),我训练了一个图像分类模型并下载了它。然后,我使用包将模型加载为 python 项目的coremltools
一部分:
此代码打印的classlabel
预测结果与我img1
直接在 Create ML 应用程序中预测标签时得到的预测结果不同。我相信应用程序在预测图像的类标签之前对输入图像进行了一些调整。当 I 时print(model)
,我得到了一些关于输入的信息:
我相信我已经通过调整图像大小和转换色彩空间进行了所需的调整。为什么代码和应用程序之间的预测不一致?
ios - 如何使用对象检测模型改进 CoreML 图像分类器模型?
我有一个使用 CreateML 创建的图像分类器模型。
训练集中的标注大致为:
- 图像包含对象 A -> 标签 a
- 图像包含对象 B -> 标签 b
- 图像包含对象 C -> 标签 c
- 图像包含对象 A + B -> 标签 a
- 图像包含对象 A + B + C -> 标签 c
您可以说对象 A 的优先级高于 B 的对象有一些“优先级”,因此应应用标签 a。与标签 c 相同,其中对象 C 具有最高优先级。
这显然不是算法的最佳选择,所以我会使用一个看起来更合适的对象识别算法。但是我已经有一个庞大的数据集,其中包含 10 万张手动正确分类的图像,这些图像不会用于训练算法,而且我必须从头开始构建一个新的训练集来进行对象检测,这显然是一个成本问题,而且不会不会很快达到现有数据集的大小。
有没有一种方法可以利用现有数据集来构建图像分类模型,并使用我从头开始手动构建但数据集中可能只有几百个项目的对象检测模型来增强它?
ios - 使用 CreateML 训练图像分类器的最佳图像分辨率是多少?
我想使用 CreateML 创建一个图像分类器模型。我有非常高分辨率的图像,但在数据流量和处理时间方面是有代价的,所以我更喜欢使用尽可能小的图像。
文档说:
图像 (...) 不必是特定大小,也不必彼此大小相同。但是,最好使用至少299 x 299 像素的图像。
我用各种尺寸 > 299x299px 的图像训练了一个测试模型,Xcode 中的模型参数显示尺寸为 299x299px,据我所知,这是标准化的图像尺寸:
这个维度似乎是由 CreateML Image Classifier 算法决定的,不可配置。
- 用大于 299x299px 的图像训练模型是否有意义?
- 如果图像尺寸不是正方形(与宽度相同的高度),在归一化过程中训练图像是否会被中心裁剪为 299x299px,或者图像在正方形之外的部分是否会影响模型?
ios - 为什么物体检测会导致找到多个物体?
我用 CreateML 训练了一个对象检测器,当我在 CreateML 中测试模型时,我得到了大量已识别的对象:
笔记:
- 该模型在一个包含约 30 张图像的小型数据集上进行了训练,该特定标签
face-gendermale
出现了约 20 次。 - 每个训练图像有 1-3 个标记对象。
- 共有 5 个标签。
问题:
- 这是预期的还是模型有问题?
- 如果这是预期的,我应该如何评估这些多个结果,甚至计算模型中找到的对象数量?
在Apple 开发者论坛中交叉发布。男人的照片© Jason Stitt | Dreamstime.com
swift - 在 Xcode 中使用 MLModel 时如何重写更少的代码
摘要:当我拖入一个.mlModel
intoXcode
时,Xcode
会为模型生成一个类接口。
- 我使用的所有模型输入都接受通用的初始化参数,
- 返回唯一的Input 类,它们被传递给模型的
predict(input:UniqueInput)
方法和 - 那些返回一个唯一的
ModelOutput
实例 - 它有一个共同
lazy var dependent: String
的属性。
问题:每次我拖入一个新的类时生成的唯一类.mlModel
需要我每次都重写代码。
目标:利用公共参数和依赖属性,以尽可能减少我在拖入 new 时需要重写的代码量.mlModels
。
当前失败尝试
我试图让自动生成的模型输入符合ModelVersion1
协议,以便新生成的模型输入具有共同的类型。但是,带有初始化程序的协议要求初始化程序实现具有required
类的关键字,而我在自动生成的类中无法控制这些类。
使用代码
(自动生成)
数据框
一致性
ERROR: Initializer requirement 'init(daysOfWeek:tradingsHours:quarters:)' can only be satisfied by a 'required' initializer in non-final class 'MITO_1Input'
细绳
object-detection - 如何为对象检测任务创建与 TuriCreate 兼容的 SFrame
我正在尝试创建一个SFrame
包含图像和边界框的坐标,以便使用TuriCreate
. 我通过IBM Cloud AnnotationsCreateML
创建了自己的数据集,并以格式导出。当我运行时:
usage_data = tc.SFrame.read_json("annotations.json")
我得到:
[{'标签':'xyz'... | 8be1172e-44bb-4084-917f-db....
这不是要求的格式。确认运行以下代码:
`我得到:
我想知道:
CreateML
导出数据格式是否正确?- 我可以
SFrame.read_json()
用来读取这种数据吗?
object-detection - 创建检测卡片值的 ML 模型
这是一个关于训练 ML 模型来检测卡片的更通用的问题。
这些卡片是儿童游戏,有 4 种不同的颜色、数字和符号。我不需要检测颜色,只需检测卡片的值(又名符号)。
我尝试用我的 iPhone 为每张卡片拍照,使用 RectLabel 在左上角的符号周围绘制矩形(卡片的右下角也有一个倒置的符号,我没有将这些标记为它们将在检测过程中被隐藏)。我裁剪了图像,因此只有卡片可见,没有周围环境。
然后我将我的图像上传到 app.roboflow.ai 并让它们发挥作用(使用自动定向、调整为 416x416、灰度、自动调整对比度、旋转、剪切、模糊和噪声)。
这给了我另一组图像,我用这些图像用 Apple 的 CreateML 训练我的模型。
但是,当我在我的应用程序中使用该模型时(我正在使用 Apple 的早餐查找器演示),未检测到卡片值 - 嗯,有时它可以工作,但仅在与手机有一定距离的情况下,并且标签是倒置或侧身。
我的猜测是这是因为我的图像没有按照应有的方式拍摄?
关于我必须如何设置整个事情以便我的模型得到良好训练的任何提示?
coreml - 在第 0 行创建空的 ML 特征列
第一次创建 ML 用户,我正在尝试为我的应用程序创建一个活动分类模型。为了测试,我创建了三个包含七个特征列的活动。所有值都是从 -10000 到 10000 的整数。当我单击训练模型时,出现以下错误:
Feature column xx is empty on row 0 of input data table
我有 CSV 文件作为带有标题行的输入。如果我排除功能列 xx,则错误在下一列。我正在使用 Create ML 1.0 (Xcode 11.6)。
有任何想法吗?
干杯基督徒
object-detection - CreateML 训练了什么样的 ObjectDetector Network?
我使用 CreateML 训练了一个新的自定义 ObjectDector。到目前为止一切都运作良好。
现在我只是想知道,后台训练了什么样的Network?是像 YOLO 还是 Mobilenet?
我在官方文档上没有找到任何东西: