与许多其他开发人员一样,我也投入了 Apple 的新 ARKit 技术。这很棒。然而,对于一个特定的项目,我希望能够识别场景中的(现实生活)图像,或者在其上投射一些东西(就像 Vuforia 对其目标图像所做的那样),或者使用它来触发事件我的应用程序。
在我研究如何实现这一点时,我偶然发现了 Apple 的 Vision 和 CoreML 框架。这似乎很有希望,尽管我还没有完全理解它。
据我了解,我应该能够通过使用 Vision 框架找到矩形并将它们输入到 CoreML 模型中来做我想做的事情,该模型只是将它与我在模型中预定义的目标图像进行比较。然后它应该能够吐出它找到的目标图像。
虽然这在我的脑海中听起来不错,但我还没有找到一种方法来做到这一点。我将如何创建这样的模型,甚至有可能吗?