我想用它的框架检测到自定义对象。
我已经对此进行了检查,我得到了很多 ARKit 实现——使用它我们可以获得实时对象检测(即使用输入流作为相机流),但我的要求是从给定/静态图像中获取它。
我找到了最新的 iOS 指南/示例,使用相机作为输入流,提供分类或矩形或面部检测等。
我的问题是我需要从具有自定义多个对象的给定图像中获取它。
例如,我需要识别给定图像中的时钟(带有多个不同类型时钟的墙壁的图像),这里我可以提供示例时钟图像。所以我需要用它的框架来识别时钟。
我已经使用带有对象分类的 Vision 的 VNImageBasedRequest 进行了检查,其中我可以使用自定义训练的 CoreML 模型获取分类,但是没有获取boundingBox属性来获取帧,这在 VNDetectedObjectObservation 中可用。
提前感谢您宝贵的时间和回复。