1

我正在开发一个可以识别图像的应用程序,然后在该图像之上放置一个 AR 节点(使用 Reality Composer 构建的 3D 模型)。我想用RealityKit/构建它Reality Composer(它也应该支持图像识别),但这不起作用。

我已经测试过模型是否可以在简单的水平面上工作,并且确实可以(在 Xcode 和 Reality Composer 测试环境中)。但是当我选择一个图像作为锚定模式时,该模型不会出现在 Xcode 项目中,但它会出现在 Reality Composer 测试环境中。

我目前使用此代码将 Reality Composer 项目加载到 Xcode 中:

let arConfiguration = ARWorldTrackingConfiguration()
arConfiguration.planeDetection = .horizontal
arView.session.run(arConfiguration)

guard let anchor = try? Spinner.loadScene() else { return }
arView.scene.anchors.append(anchor)

预期的输出将是 - 当指向正确的图像时 - 模型出现。

4

2 回答 2

0

我在使用 iOS 13 beta 时遇到了同样的问题。更新到 iOS 13.1 测试版就可以了。我只能猜测它与 iOS 上的 RealityKit 相关。请注意,更新到 iOS 13.1 beta 还需要更新 XCode 11 beta 7 以支持它。希望它会帮助你。

于 2019-09-13T22:30:06.017 回答
0

我面临同样的问题,在谷歌上搜索带我到这里。我正在使用 Xcode 11.2、iOS 13.1.2。在使用内置的“Reality Composer”在画布中添加一个简单的胶囊对象后,我解决了这个问题。我认为它可能对某人有所帮助,所以我在这里写我的用例。

于 2019-11-05T16:19:46.603 回答