问题标签 [reality-composer]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
augmented-reality - Reality Converter Beta 3 – GLTF 到 USDZ 转换中的错误
我目前使用的.glTF
模型在查看器中非常好.glTF
。但是,一旦我尝试将其转换.usdz
为在 ARKit 中使用,我就会收到此错误:
我找不到列出错误的位置。
有人可以帮忙吗?这是我第一次尝试 3D 和 ARKit。
swift - 从文件加载实体
我创建了一个从 Reality Composer 导出并添加到项目中的 .reality 文件。
编码:
在 iOS 版本 13.5 或更高版本的设备上,触发锚定时应用程序崩溃并且应显示 3D 模型。
错误:
线程 1:EXC_BAD_ACCESS(代码=1,地址=0x40)
整个项目已经上传到这个仓库:https ://github.com/evjand/ARAnchorTest
更新:在向 Apple 提交错误报告后,他们似乎已经在 iOS 14 测试版中修复了它。
swiftui - RealityKit - 使用 SwiftUI 加载 Reality Composer 场景
我正在尝试使用 SwiftUI、RealityKit 和 ARKit 在脸上加载不同的模型。
这就是我加载它们的方式,但是当相机视图打开并加载一个模型时,其他模型将不会被加载。有人可以帮我吗?
swift - RealityKit – 存储实体并从 URL 异步加载场景
这是苹果文档:
1.在不生成代码的情况下手动加载 Reality Composer 文件
我使用了“从 URL 异步加载场景”代码:
在 viewDidLoad :
打印空间是:
所以我的问题是:如何在 self.arView.scene 上显示我的 TestScene.reality 文件。谢谢!!!
swift - 用于 VR 的 RealityKit
尝试使用我的 RealityKit 项目作为屏幕应用程序 (VR) 的基础,而不是从后置摄像头投射到现实世界 (AR) 上。
任何人都知道如何使用.nonAR
相机选项异步加载 RealityKit 项目,因此它会在应用程序中投影,而不是利用后置摄像头?
我应该在 Swift 代码或 Reality Composer 项目中创建位置信息吗?
arkit - generateCollisionShapes() 似乎不起作用
在以下层次结构的根上应用 generateCollisionShapes() 时,没有任何反应。根实体的“碰撞”组件仍然为零。
根实体类如下所示:
子实体从 .usdz 文件中加载,其层次结构为:Entity -> [ModelEntity, ModelEntity]
所以最终的层次结构是:
现在,当应用以下行时,SomeEntity 的碰撞组件保持为零,我收到以下日志消息:
日志消息是:[碰撞] 错误参数 (SphereRadius),值 = 0.000000,传递给形状创建。
- 听起来没有模型组件的实体会破坏递归操作
编辑 1:它适用于在代码或 Reality Composer 中创建的模型实体。对于从 USDZ 文件加载的实体,这种行为是出乎意料的,因为模型层次结构似乎发挥了重要作用。
augmented-reality - 在 RealityKit 中向 USDZ 模型添加地面阴影?
一段时间以来,我一直在尝试为 RealityKit 中的对象添加逼真的地面阴影。对于我的用例,我不会使用 Reality Composer,也不会(根据这个问题)使用水平平面的锚实体(我的用户将点击以放置一个对象,并且该点击可以与水平平面对齐或ARMeshAnchor,因为我们在应用程序中支持 LiDAR)。
当我在 iOS 上通过 QuickLook 测试我的 USDZ 模型时,我看到 iOS 在我的模型下方添加了一个阴影,虽然并不完全真实,但与没有阴影相比,它看起来更“放置”在表面上。
在尝试添加我的模型时,我正在采取以下步骤;
当用户点击屏幕时,我执行光线投射并将模型添加到构建的锚点;
当模型添加到轻敲点时,没有地面阴影。作为测试,我尝试添加定向光,相信它的位置可能会在物体上投射光,因此会产生阴影。我像这样创造光;
我添加了一个全局var lightEntity = AnchorEntity()
. 然后,在我的viewDidLoad
方法中,我试图像这样设置灯光;
虽然我可以看到有光照射在物体上,但它似乎并没有造成任何阴影。
swift - 当锚点重新出现在视频屏幕中时,使 AR 实体重新出现
使用iOS14.2、XCode12.1、Swift5.3、
我在 Xcode 项目中的第一次 AR 体验效果很好。
在现实作曲家中,我定义了一个“图像”类型的锚点,并在其 XY 中心放置了一个 3D 对象。此外,我添加了一个小的行为动画,使 3D 对象在触摸时翻转并立即发送触摸通知事件。这一切都在我的应用程序中运行得很好。
但是,我想做一些后续步骤,但不知道如何实现。
特别是:下面列表中的第 3 步我不知道该怎么做:
- 点击一个 AR 对象并使其翻转
- 使对象在翻转动画后消失
- 一旦相机再次在锚定图像(或锚定对象)上移动,使对象重新出现
步骤 1 和 2 的代码可以在下面找到。
我看到的问题是该对象永远不会重新出现 - 即使相机指向锚图像也是如此。
有什么方法可以通过触摸 3D 对象使其消失(或隐藏),并在您再次将相机移向锚图像(或锚对象)时使其重新出现?