问题标签 [reality-composer]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
augmented-reality - 图像锚定在 Reality Composer 中如何工作?
在学习 Reality Composer 的过程中,我发现可以使用 Reality Composer 锚定图像,这意味着如果我在现实生活中有一个图像,并且在 Reality Composer 中有它的副本,那么使用它我可以在上面构建一个完整的场景图片。我想知道,实际的锚定是如何发生的?
我以前使用过 SIFT 关键点匹配,也可以在这种情况下使用,但是,我无法在 Reality Composer 中找到它的工作原理。
swift - 在单个应用程序中编写多个 AR 体验
我对编码很陌生,但我一直在搞乱并试图掌握事情的窍门。我一直在开发一个应用程序,它可以让你从许多 AR 体验中进行选择,显示各种工件的模型和一些关于它们的弹出信息。正如我现在设置的那样,有几个 .rcproject 文件在他们自己的视图中使用 Xcode 的默认 AR 代码,然后是一个使用导航链接指向所述视图的菜单。到目前为止,我只能通过在每个工件的视图、锚点和链接中手动编码来完成这项工作。这显然会导致代码中出现大量冗余,我知道必须有更好的方法来做到这一点。理想情况下,我希望能够将完成的 .rcproject(或 .reality)文件放入应用程序的文件夹中,然后动态加载、提取和锚定相关场景,但我无法弄清楚如何。我在网上找到的关于将此类 AR 体验导入 Xcode 的大部分内容都会教您如何导入单个文件,然后停止。
本质上,我正在寻找有关如何使多个 AR 体验在单个应用程序中发挥作用的建议、技巧或建议。
为清楚起见,这是我所指的默认 AR 代码(尽管我已将“框”替换为工件):
ios - 具有 USDZ 和模型 I/O 的多个场景
如果使用 Reality Composer 创建一个由两个简单场景组成的 USDZ,它们之间有一个基本的过渡(点击或场景开始或其他),模型 I/O 似乎无法识别第二个场景。如果您查看 USDZ 的 MDLAsset 层次结构,则会省略第二个场景(AR Quick Look 工作正常,正如您所期望的那样)。我相信这可能是由于场景定义中使用了“over”prim 说明符。当您检查 ascii USDA 文件时,第一个场景定义如下:
第二个场景带有“over”说明符
我在 Pixar USD 文档中注意到,以“over”开头的 prims 被跳过:https ://graphics.pixar.com/usd/docs/USD-Frequently-Asked-Questions.html#USDFrequentlyAskedQuestions-What'sthedifferencebetweenan% 22over%22anda%22typelessdef%22?
“这种区别实际上在 Usd 核心中用于定义,例如,默认阶段遍历行为,因为 UsdPrim::GetChildren() 仅迭代 prim 的已定义子项(无论它们是否在阶段的当前视图中拥有类型),跳过刚刚结束的 prims。”
有谁知道我该如何解决这个问题?有没有办法让模型 I/O 不忽略这个场景,或者我可以更改 USDA 以便 MDLAsset 拥有该场景,我尝试在 USDA 中将“over”更改为“def”,但创建的 USDZ 没有不能在 AR Quick Look 中工作(它需要)。
任何帮助、想法或指示将不胜感激。
arkit - 是否可以使用 Reality Composer 检测现实世界中的 3D 资产?
我正在尝试找到一种方法来创建.arobject
用于检测现实世界中的 3D 资产。我发现的唯一解决方案是使用 Apple 扫描应用程序。但我想知道也许有一种方法可以使用 Reality Composer 来实现这一点?由于 Reality Composer 可以检测图像和锚点,这可能是可能的。
reality-composer - 在哪里可以找到 Reality Converter 的用户手册。?
我正在尝试在 Reality 转换器中开发一个应用程序,但我在基本视图导航和使用该软件时反复挂断。我目前迷失在编辑器中,因为我看不到网格线,我不知道如何返回原点。如何将视图移动到场景中的对象?
swift - 按钮处于活动状态时如何触发 Reality Composer Action?
我目前正在开发一个 AR 应用程序,我只想在事先按下按钮时触发一个动作(例如场景更改)。这是我正在尝试构建的过程:
对象在用户面前产生
用户点击按钮以选择工具
用户点击对象并触发来自 RC 项目的动作序列
到目前为止,我创建了场景的初始加载,
按钮状态的变量
还有一个设置状态的函数
这是我第一次使用 Swift 和 Reality Composer,所以我很困惑 :D
我希望你能帮忙!
arkit - ARKit 应用程序无法重播 Reality Composer 录制的 ARSession
我按照此处的说明使用 Reality Composer 应用程序记录 ARKit mov 会话,但是当我加载 Xcode 并使用 ARKit 应用程序运行时,该应用程序显示黑屏并显示错误:该应用程序在没有 .mov 文件的情况下运行良好
reality-composer - Reality Composer - 将平面添加到相机
我有一个关于 Reality Composer 的问题。我想用触发不同行为的按钮构建一个配置器。默认情况下,无法在 Reality Composer 中创建随摄像机移动的菜单。只能将按钮放置在场景中。但是当观看者移动 iPhone 时,按钮会随着对象旋转。它们不会直接显示在显示屏上。
是否可以通过编程将平面连接到相机上,以便无论我将智能手机移动到何处,该表面始终在屏幕上?
我创建了一个简单的 Reality Composer 文件,其中包含一个相机和一个名为“plane”的表面。不能将此表面绑定到相机吗?我该怎么做?不幸的是,在编程方面我是个新手。
还是有另一种解决问题的可能性?
非常感谢
绵羊
这是代码:
'''
'''
augmented-reality - 在可在 WEB AR 上使用的现实作曲家中添加超链接
所以我想知道你是否可以在现实作曲家中添加一个可用于网络 ar 的超链接动作?
我似乎找不到为此采取的行动?
我在我的网站上使用现实文件的方式是这样的
任何帮助,将不胜感激?