我想使用Vision
框架,然后使用Core ML
模型来用相机检测一些东西。我首先找到了一些示例,比如说“步骤”(Vision
-> Core ML
),但是我想使用ARKit
框架来表示其他一些东西,具体取决于检测到的内容Vision
和Core ML
模型。
我在这里找到了一篇询问流程的帖子ARKit
-> Vision
-> Core ML
,但我想做的是Vision
-> Core ML
-> ARKit
。
有人可以为我提供该场景的示例或教程或一些指南吗?
我想使用Vision
框架,然后使用Core ML
模型来用相机检测一些东西。我首先找到了一些示例,比如说“步骤”(Vision
-> Core ML
),但是我想使用ARKit
框架来表示其他一些东西,具体取决于检测到的内容Vision
和Core ML
模型。
我在这里找到了一篇询问流程的帖子ARKit
-> Vision
-> Core ML
,但我想做的是Vision
-> Core ML
-> ARKit
。
有人可以为我提供该场景的示例或教程或一些指南吗?