问题标签 [realitykit]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
swift - 直接从 usdz 文件而不是 Reality Composer 文件加载模型时,如何在 RealityKit 中渲染阴影?
将模型从 usdz 文件直接添加到场景锚时,模型下方不会出现接地阴影。如果您将模型导入 RealityComposer 并添加 RealityComposer 场景,则会出现这些信息。但是你可以在不使用 RC 的情况下启用接地阴影吗?
我尝试在场景中添加 DirectionalLight,但这并没有投射任何阴影。我还尝试更改 ARView 上的 RenderingOptions。
arkit - RealityKit - 人脸锚
我正在尝试使用 Apple 的 ARKit 3.0(Reality Kit)设置面部锚,但失败了。1. 以前只支持前置摄像头。还是这样吗?2、如何让Reality Kit的ARView使用前置摄像头?3. 后置摄像头可能无法使用其他任何原因?
附上一个简单的片段
谢谢 !
image - 如何将 Reality Composer (RealityKit) 场景锚定到检测到的图像
将 RealityKit 场景锚定到图像目标
我曾尝试使用有限的文档来编写代码,但没有成功。我只能让场景锚定到水平面。
谁能建议一些简单的代码将现实作曲家制作的场景链接到图像目标?
我将如何=更改/添加到下面的代码?
swift - RealityKit – 同步组件
我正在尝试使用 RealityKit 建立一个协作会话。据我了解,我需要符合我的实体的同步组件。
所以我的问题是:有没有关于使用这个组件的文档来源?特别是我不明白我是否应该从接收方处理任何用于处理接收到的数据的委托方法。
我想强调的一件事:我正在寻找使用 RealityKit 而不是 ARKit 3 的解决方案。根据 WWDC 中的苹果,他们说:
如果您使用的是 RealityKit,这是您需要添加以使用协作会话的唯一新代码。如果您不使用 RealityKit,则需要实现额外的两个委托函数来传输协作数据。
谢谢。
swift - 从 ARKit 3 中的 3D Skeleton 检索骨骼旋转
我试图获得与他们父母相关的骨骼旋转,但我最终得到了非常奇怪的角度。
我已经尝试了一切,矩阵乘法,偏移量,轴交换,但没有运气。
在//RETRIEVE ANGLES HERE
我尝试了不同的方法:
在这次尝试中,我将jointTransformation设置为a SCNNode.transform
,这样我就可以检索eulerAngles以使其易于阅读并尝试了解正在发生的事情。
我开始锻炼一些关节,但我认为这纯属巧合或运气,因为其余的骨头旋转得很奇怪。
在其他尝试中,我使用jointModelTransforms(模型,而不是本地)来获取它们,因此所有变换都相对于骨架的根骨骼。
使用这种方法,我可以像这样进行矩阵乘法:
为了获得相对于其父项的旋转,但在相同的情况下,一些骨骼旋转正常,而另一些旋转奇怪。我敢打赌纯属巧合。
为什么我要获得骨骼旋转?
我正在尝试用我的手机构建一个 MoCap 应用程序,将旋转传递给 Blender,尝试从中构建 .BVH 文件,这样我就可以在 Blender 上使用它们。
这是我自己的装备:
我以前用 Kinect 做过这个,但是我已经尝试了好几天在 ARKit 3 上做这个,但没有运气:(
swift - Reality Composer 和处理多个表面
我想知道是否有办法让从现实作曲家导出的场景处理现实世界中的多个表面。
例如,如果我们创建一个带有球的场景,当我们触摸球时会在 x 轴上施加一个力。我希望当场景添加到桌子顶部时,如果球超出桌子的范围,球应该会掉下来。这没有发生,场景仅在一个表面上工作。
我是否遗漏了什么或 Reality Composer 不支持复杂的场景?
谢谢
swift - RealityKit arView.snapshot 失败
我目前有一个使用 RealityKit 将 AR 内容添加到视图的应用程序。我有一个按钮,允许用户拍照。根据文档, ARView.snapshot() 似乎可以做到这一点。但是,每次尝试时都会出错。
我收到的错误是
validateFunctionArguments:3543:断言失败“片段函数(arPostProcessCombinedGraphics):着色器读取纹理(inputColor [0]),其用法(0x04)未指定MTLTextureUsageShaderRead(0x01)”
任何帮助是极大的赞赏!
swift - RealityKit – 如何将视频材质添加到 ModelEntity?
我使用代码在 RealityKit 中添加图片纹理,效果很好。
我尝试使用此代码将视频文件添加为纹理,但它崩溃了!!!
如何添加视频文件?
ios - makeRenderPipelineState 失败 [ushort 类型的输出与 MTLPixelFormatR16Float 颜色附件不兼容。]
我正在尝试使用 realitykit 呈现一些文本,代码编译,场景开始,但是场景中没有显示文本。
我正在使用运行 iOS 13.1.2 的 iPhone 7,我尝试了相同的代码,但使用了一个盒子 Mesh Resource,它工作得很好。
我的控制器看起来像这样
正如我之前所说,当我运行时,控制台会显示这些错误: