问题标签 [arcamera]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
arkit - ARKIT ARCamera zFar
有人知道如何更改 zFar 或 ARKIT ARCamera 吗?或者获取它的当前值。
我有一个非常大的模型正在剪裁。我认为。在搅拌机中,我遇到了同样的问题,并通过在 Frustum 上设置远值来修复它。
我可以为每个相机帧创建一个投影矩阵,但不能设置它。
ios - ARKit 是否支持前置摄像头?
ARCamera
我们如何使用或访问前置摄像头图像,ARSCNView
是否可以ARSCNView
像摄像头录制一样进行录制?
swift - BarcodeScanner 使用 ARCamera 后无法读取 UPC 码
我正在使用Apple 演示项目来放置 3d 对象。BarcodeScanner读取UPC 代码,然后使用它从 Firebase 下载模型。我的问题是,从 ARKit 屏幕返回后popViewController
(我也尝试过使用pushViewController
,甚至像这样:
BarcodeScanner 相机只会模糊所有太靠近它的东西。下面是几个截图:Normal BarcodeScanner camera , ARKit camera , BarcodeScanner camera after using ARKit。还有项目Github链接,我已经更改了代码,所以现在它在阅读任何 UPC 后给出模型。还想补充一点,我认为问题可能出在设置函数中的某个地方SceneExtensions.swift
,但评论它不起作用。
UPD: 我通过添加将其聚焦在触摸上的功能使相机不会模糊太靠近它的所有东西,并且它在闪光灯打开时开始工作。但是当它不是时仍然没有工作。
UPD2: 它不仅适用于闪光灯照明,而且适用于更好的照明,所以问题仍然在于对焦。我猜在 AR 会议期间 smth 发生了变化,但仍然不明白是什么。
UPD3:事实证明,如果照明良好,对焦相机功能会有所帮助,所以这是我找到的最佳解决方案。
unity3d - Vuforia ARcamera 屏幕位置超出视锥体
我们正在为 Hololens 开发一个项目,由于某种原因,运行它时会在 hololens 上崩溃,但在模拟中却没有。我们尝试了所有简单的修复(重启、关闭、删除相机、设置大小),但都失败了。我们收到以下错误:
(文件名:C:\buildslave\unity\build\artifacts/generated/Metro/runtime/DebugBindings.gen.cpp 行:51)
视锥体之外的屏幕位置(屏幕位置 0.000000、0.000000、2000.000000)(相机矩形 0 0 1268 720)
(文件名:C:\buildslave\unity\build\Runtime/Camera/Camera.cpp 行:2974)
程序“[3704] TextBoxTest.exe”已退出,代码为 -2147483645 (0x80000003)。
我们正在使用 vuforia 构建一个简单而小型的项目,以识别 QR 码并将一个立方体放在它们的正上方。这适用于模拟,但它会立即在 Hololens 上崩溃。
有小费吗?这个错误是什么意思?我们已经为此浪费了一整天的时间。
ios - ARKit:使虚拟 3D 对象指向相机
我正在尝试构建一个基于 ARKit 的应用程序,以将 3D 虚拟对象放置到检测到的平面上。我在 GitHub 上找到了一个有用的项目放置虚拟对象
这正是我正在寻找的工作。但是,当任何虚拟对象被放置在相机前面时,它可能会或可能不会面对相机。有时 3D 对象看向相机的相反方向
我尝试将 SCNconstraints 添加到虚拟对象节点并调整 3D 模型的旋转和方向以在放置时查看相机。似乎没有任何工作。
下面的代码在将对象放置在场景中时起作用。但是,当相机来回移动时,对象会旋转。我想在放置对象后禁用它
如果有人可以解决这个问题,那将是一个很大的帮助!
ios - 使用 ARKit ARCamera.transform 的当前位置进行空间映射
我需要使用 ARKit 找到房间内两点之间的距离。我将解释我的情况。在房间内,我有一个预定义的点。假设该点是 (x1,y1,z1)。我从 ARKit ARCamera.transform 的当前位置获取了这个值。我动态地移动到另一个点,其 ARCamera.transform 的当前位置是 (x2,y2,z2)。我的目的是找到两者之间的真实世界距离。
请找到上面用于获取相机当前位置的代码。
现在问题来了。(x2,y2,z2) 每次我在同一个物理点测试时都不同(请注意,我的起点保持不变,因此 ARKit 会话每次都在同一点开始),因此距离变化较大。简而言之,我不能依靠 ARKit 以一种有用的方式给出我相机的当前点,ARCamera.transform 的当前位置似乎是一个随机值,取决于一些未知的事实。在谷歌搜索中,我看到 ARCamera.transform 的当前位置给出了设备摄像头的位置。如果有错误,任何人都可以指出解决方案或纠正我,或者请告诉我 ARCamera.transform 的当前位置到底是什么,或者我们如何在现实世界定位中使用 ARCamera.transform 的当前位置?
ios - 使用 ARKit 中的 ARCamera 信息对平面节点进行定向/旋转
我很新,正在尝试使用 Apple 的 ARKit,并且对 ARCamera 的旋转信息有疑问。我正在拍摄照片并在拍摄每张图像时保存相机的当前位置、方向和旋转。这个想法是用这些图像创建 2d 平面节点,并让它们出现在另一个视图中,其位置/方向/旋转(相对于原点)与它们被捕获时相同(就好像图像在他们被俘虏了)。位置信息似乎工作正常,但方向/旋转完全消失,因为我很难理解何时使用 self.sceneView.session.currentFrame?.camera.eulerAngles 与 self.sceneView.pointOfView? .orientation vs self.sceneView.pointOfView?.rotation。
这就是我设置二维图像平面的方式:
然后我将 设置为self.planeNode.eulerAngles.x
我从使用self.sceneView.session.currentFrame?.camera.eulerAngles.x
x 捕获图像的视图中获得的值(并对 y 和 z 执行相同的操作)。
然后我将节点的旋转设置为self.planeNode.rotation.x = self.rotX
(其中 self.rotX 是我从中获得的信息self.sceneView.pointOfView?.rotation.x
)。
我也尝试将其设置如下:
文档指出 eulerAngles 是相机在滚动、俯仰和偏航值方面的“方向”,但是 self.sceneView.pointOfView?.orientation 是用来做什么的?
因此,当我指定平面节点的位置、方向和旋转时,我从 eulerAngles 获得的信息是否足以捕获图像的正确方向?
我的方法是完全错误的还是我遗漏了一些明显的东西?任何帮助将非常感激!
unity3d - 部署后 Unity 游戏翻转
我有一个使用 Vuforia 的 ARCamera 的游戏。在 Unity 中运行时,游戏运行没有问题。然而,在我将游戏部署到 UWP 之后,似乎一切都发生了翻天覆地的变化。几乎就像我从后面看比赛一样。连写法都颠倒了。将游戏部署到 android 设备时不会发生这种情况。有谁知道如何解决这个问题?
提前致谢
arkit - ARKit 变换整个场景
我有这个非常好的 SCNScene,它包含一些 nSCNNodes……现在我想在 ARSCNView 中显示这个场景。但是,我的整个场景都是用 x,y,z >= 0 构建的,如果我只是设置屏幕,我的整个场景就会在相机后面。
在我拥有 currentFrame 之后,我也无法在视图中渲染我的场景,因为节点太多并且卡住了......
所以:我正在寻找一种方法来以某种方式改变我的 SCNScene,这样它就不会改变自己,而是在相机前面找到一个合适的位置(即 0,0,0),并且可能会缩小一点.
这甚至可能吗?如果是这样,我必须对哪些对象进行哪些转换?
谢谢阅读 :)