问题标签 [depth-camera]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
arm - 将 ARM 的 Orbbec Embedded S 摄像头与 OpenNI 结合使用
我有一个已连接嵌入式 S 相机的 ARM SoC。我可以看到相机已连接:
我从https://orbbec3d.com/develop/下载了 OpenNI_2.3.0.63.zip ,然后将 OpenNI-Linux-Arm64-2.3.0.63 目录复制到我的设备并运行 install.sh。现在,当我插入相机时,我得到:
我交叉编译了一个简单的应用程序:
当我第一次运行它时,我得到了:
所以我将 libOpenNI2.so 复制到 /usr/lib。现在,当我运行它时,我得到:
为什么看不到摄像头?我还需要做些什么才能让它工作吗?
lidar - ARCore 支持 Galaxy S20 Ultra ToF 和/或 iPad Pro 2020 LiDAR?
我正在尝试决定是否将 Galaxy S20 Ultra ToF / 深度相机或 iPad Pro 2020 LiDAR 用于模型汽车 SLAM 应用程序。(与奥迪 1:10 上的 360° 扫描激光雷达竞争)
苹果表示它支持带有 ARKit 3.5 的最新 iPad Pro LiDAR。
ARCore 是否支持这项最新技术?谢谢G。
opencv - 从地面 3D 点估计相机方向?
给定与平面(地面)相对应的相机透视图中的一组 3D 点,是否有任何快速有效的方法来找到平面相对于相机平面的方向?还是只能通过在点云上运行更重的“表面匹配”算法来实现?
我尝试使用estimateAffine3D
and findHomography
,但我的主要限制是我没有表面平面上的点坐标 - 我只能从深度图像中选择一组点,因此必须从一组 3D 点中工作相机框架。
我写了一个简单的几何方法,它需要几个点并根据深度测量计算垂直和水平角度,但我担心这既不是很稳健也不是很精确。
编辑:按照@Micka 的建议,我尝试将这些点拟合到相机框架上的二维平面,具有以下功能:
为简单起见,假设相机已正确校准并且 3D 重建是正确的 - 我之前已经验证过,因此超出了本问题的范围。我使用鼠标选择深度/颜色帧对上的点,重建 3D 坐标并将它们传递给上面的函数。
我还尝试了其他方法cv::SVD::solveZ()
,例如反转xyz
和cv::invert()
,cv::solve()
但它总是以非常小的值或关于矩阵大小和/或类型的运行时错误结束。
ros - 如何在 ROS 中将深度图像转换为点云?
我正在使用模拟 kinect 深度相机从我的凉亭世界中的 URDF 接收深度图像。我使用 python 制作了一个过滤器,它只获取图像中显示的深度图像的一部分,现在我想将此深度图像可视化为 rviz 上的点云。
因为我是 ROS 的新手,所以如果我能得到一些例子就太好了。