3

我想用它的框架检测到自定义对象。

  • 我已经对此进行了检查,我得到了很多 ARKit 实现——使用它我们可以获得实时对象检测(即使用输入流作为相机流),但我的要求是从给定/静态图像中获取它。

  • 我找到了最新的 iOS 指南/示例,使用相机作为输入流,提供分类或矩形或面部检测等。

    • 我的问题是我需要从具有自定义多个对象的给定图像中获取它。

      例如,我需要识别给定图像中的时钟(带有多个不同类型时钟的墙壁的图像),这里我可以提供示例时钟图像。所以我需要用它的框架来识别时钟。

      我已经使用带有对象分类的 Vision 的 VNImageBasedRequest 进行了检查,其中我可以使用自定义训练的 CoreML 模型获取分类,但是没有获取boundingBox属性来获取帧,这在 VNDetectedObjectObservation 中可用。

提前感谢您宝贵的时间和回复。

4

1 回答 1

1

您可以使用 Google Cloud AutoML Vision Object Detection 来做到这一点。如果要检测自定义对象,则需要创建自己的自定义模型数据集并对其进行训练。训练模型后,您可以将其托管在云上并从 iOS 应用程序调用 API 以检测静态图像中的对象(在线),或者您可以将训练后的模型添加到项目中以检测图像中的对象(离线)。您可以在此处找到完整的文档https://cloud.google.com/vision/automl/object-detection/docs/before-you-begin

如果您能够以任何其他方式完成它,请告诉我如何,即使我正在处理类似的用例。

于 2020-03-18T05:19:34.373 回答