问题标签 [realitykit]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
swift - 在 ARKit 中转换 SIMD2 位置和标记
在尝试了解有关 ARKit 的更多信息时,我一直在探索 iOS 13 中的ARBodyTrackingConfiguration
可用功能ARKit 3.0
。理想情况下,我希望接收在我的会话中跟踪的特定“关节”,然后在屏幕上用指示器(a点、UIView 等)。我正在接收基于以下代码的位置;
如果在框架中检测到一个人,我会收到如下输出:
我的问题有两个:
如何将此点转换为与我的应用程序相关的 X、Y 位置,以及如何用简单的东西(如小方形 UIView)“标记”该位置。不太熟悉RealityKit
or SceneKit
,我不确定如何像在 UIKit 中那样绘制一个简单的框。
swift - 如何将已知的位置和方向设置为 ARKit 的起点
我开始使用 ARKit,并且我有一个用例,我想知道从已知位置到另一个位置的运动。
所以我想知道是否有可能(就像每个跟踪解决方案一样)在 ARKit 中设置一个已知的位置和方向作为跟踪的起点?
问候
swift - 如何在 ARKit 中播放特定时间间隔的 DAE 动画?
我的动画模型的总时间间隔为 45 秒。我点击模型,应该不能从一开始就播放它,而是从第 15 秒开始播放。
如果您认为这是可能的,任何人都可以帮助我吗?
编辑:
一旦我加载我的动画模型,SceneKit 就会播放动画。现在有了钥匙,我在遇到的自定义方法的帮助下裁剪了动画。
通过点击模型,我枚举所有父/子节点以停止或从场景中删除动画。到目前为止,一切都很好。
当我尝试将裁剪的动画添加回场景时出现问题。什么都没有发生,因为场景保持空闲,没有任何动作。
我在这里做错了吗?
swift - 如何在 RealityKit 中与 3D 对象交互
3D 对象的交互问题。我发现了 RealityKit 的一些 beta 功能,例如 PhysicsBodyComponent、applyImpulse、addForce、applyAngularImpulse 等。
我试图为对象“花瓶”添加物理特性,并在点击或类似事件时产生对对象的冲动。
真的很奇怪,执行命令后,物理特性正常添加,同时脉冲和力没有添加到对象中(见下文调试输出)。
调试打印输出:
东西1可选(RealityKit.PhysicsBodyComponent(模式:RealityKit.PhysicsBodyMode.dynamic,massProperties:RealityKit.PhysicsMassProperties(质量:0.2,惯性:SIMD3(0.1,0.1,0.1),centerOfMass:(位置:SIMD3(0.0,0.0,0.0) , 方向: simd_quatf(real: 1.0, imag: SIMD3(0.0, 0.0, 0.0)))), 材质: RealityKit.PhysicsMaterialResource, isTranslationLocked: (x: false, y: false, z: false), isRotationLocked: (x:假,y:假,z:假),isContinuousCollisionDetectionEnabled:假,传送:假,userForce:SIMD3(0.0,0.0,0.0),userTorque:SIMD3(0.0,0.0,0.0),userLinearImpulse:SIMD3(0.0,0.0,0.0) ), userAngularImpulse: SIMD3(0.0, 0.0, 0.0)))
东西5可选(RealityKit.PhysicsBodyComponent(模式:RealityKit.PhysicsBodyMode.dynamic,massProperties:RealityKit.PhysicsMassProperties(质量:0.2,惯性:SIMD3(0.1,0.1,0.1),centerOfMass:(位置:SIMD3(0.0,0.0,0.0) , 方向: simd_quatf(real: 1.0, imag: SIMD3(0.0, 0.0, >0.0)))), material: RealityKit.PhysicsMaterialResource, isTranslationLocked: (x: false, y: false, z: false), isRotationLocked: (x :假,y:假,z:假),isContinuousCollisionDetectionEnabled:假,传送:假,userForce:SIMD3(0.0,0.0,0.0),userTorque:SIMD3(0.0,0.0,0.0),userLinearImpulse:SIMD3(0.0,0.0, 0.0), userAngularImpulse: SIMD3(0.0, 0.0, 0.0)))
正如我们所见,函数不会向对象“花瓶”添加冲动和力量。也许我做错了什么。
ios - ARKit 平面检测 - “ARView”类型的值没有成员“会话”
我正在尝试将平面检测添加到一个简单的 ARKit 应用程序中。我想在垂直平面上放一张图片。
所以首先我需要检测平面然后我可以添加我在 RealityKit 中创建的对象锚。
但是问题是我不确定使用 ARKit 3 和 Xcode 11 检测飞机并将其添加到我的场景中的正确方法。
它应该很简单:
但我收到以下错误:
“ARView”类型的值没有成员“会话”
我什至尝试了以下内容,Apple 在他们的 WWDC 演示 (4:27) 中将其用作示例,
苹果演示!
但是在尝试创建 AnchorEntity 时出现以下错误
表达式类型“AnchorEntity”在没有更多上下文的情况下是模棱两可的
ios - RealityKit 仅显示深色图像
我正在使用 ARKit 3 和 RealityKit 开发 iOS 应用程序。我想在包含图像的房间内创建虚拟 2d 平面。因此我用
但是不接近白色的图像会显示得很暗,接近黑色。我也试过了UnlitMaterial
。它确实创造了更好的结果,但图像仍然很暗。此问题在 JPEG 和 PNG 文件上仍然存在。
在我使用 SceneKit 的早期版本中,我通过以下方式解决了类似的问题
我猜图像确实通过这段代码照亮了自己。
如何解决 RealityKit 中的问题?
swift - ARKit People Occlusion 样本是如何完成的?
这可能是一个晦涩难懂的问题,但我在网上看到很多非常酷的示例,说明人们如何使用 ARKit 3 中的新 ARKit 人物遮挡技术来有效地将人物与背景“分离”,并对“人”(见这里)。
在查看 Apple 提供的源代码和文档时,我发现我可以segmentationBuffer
从 ARFrame 中检索,就像这样;
在“未知”部分,我试图确定如何在原始相机源之上渲染我的新“模糊”人物。似乎没有任何方法可以在原始相机源的“顶部”绘制新的 CIImage,因为 ARView 无法手动更新。