1

我有一个带有简单 Reality Composer 项目的增强现实应用程序。它在 ipad 14.4 上运行良好,但我在更高版本(14.7 和 15)上遇到问题。

锚点检测要灵敏得多。这会导致每次检测到新的图像都会重新启动我的场景。另一方面,一旦摄像机不再看到锚的图像,场景就会中断。

我正在使用 xcode 13.1

我使用这个简单的代码:

import RealityKit

class ViewController: UIViewController {

    @IBOutlet var arView: ARView!

    override func viewDidLoad() {
        super.viewDidLoad()

        guard let anchor2 = try? Enigme1.loadDebut() else { return }

        arView.scene.anchors.append(anchor2)

    }

}

非常感谢你能给我的帮助。

4

1 回答 1

0

Reality Composer 和 RealityKit 的AnchorEntity(.image)的行为风格与 ARKit 在ARImageTrackingConfiguration中的锚点相同——如果跟踪的图像在视图中不再可见,则不会有ARImageAnchor,因此不会有 3D 模型。

使用时AnchorEntity(.image),如果您的 3D 模型有超过100,000+个多边形,则每次重新出现在屏幕上都会导致轻微的冻结。

于 2021-12-02T23:13:17.660 回答