问题标签 [3dcamera]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c++ - 使用 Openni + Qt + Asus Xtion Pro Live 获取深度帧
几天来,我在使用 Asus Xtion Pro Live、Openni 2 和 Qt 时遇到了关于深度帧采集的问题。当相机连接到 USB 2.0 端口时,我的应用程序工作正常,但是当我尝试将相机连接到 USB 3.0 端口时,我无法显示来自深度流的图像。
为了解决这个问题,我编写了一个非常基本的控制台应用程序,它只获取颜色和深度帧,并且对于每一帧,将时间戳和索引写入文件中。与彩色帧相比,接收到的深度帧的数量似乎变得非常少(1784 个彩色帧对 464 个深度帧,采集 1 百万)。将相机连接到 USB 2.0 端口,我得到了 1784 色帧和 1784 深度帧。
我注意到使用 QApplication 而不是 QCoreApplication,深度帧图像的数量会减少(44 个深度帧用于 1 mn 的采集)。
您认为问题来自 Qt 还是来自相机及其驱动程序?我在华硕支持上表示华硕 Xtion Pro live 和 USB 3.0 存在一些问题。我从http://reconstructme.net/2012/10/13/asus-xtion-usb-3-0-hotfix-2/下载了一个补丁,但它并没有解决我的问题。
谢谢 !
point-cloud-library - 使用两个 ToF 相机时的干扰
我同时使用 SoftKinetic 的 DS325 和 Creative Senz3D 以及 DepthSense-SDK 和 Point-Cloud-Library(在 Ubuntu 15.04 上)。但我受到了强烈的干扰。
是否有可能控制激光器(软件端)以特殊频率发送光或交替关闭和打开它?
ros - 如何在 ROS 上使用 Orbbec Astra 传感器/摄像头查看点云?
我已经安装了 ROS indigo、openni2,并插入了 Orbbec Astra 传感器。当我尝试执行时:
我收到未连接设备的警告:
如何使用 Orbbec Astra 相机在 rviz 中查看简单的点云?
java - Google 的 Project Tango 在特定屏幕区域获得积分
所以我试图弄清楚如何获取 Tango 的点云,并且只保留位于 DEVICE 屏幕中心的方形区域中的点(通过 X 和 Y,深度无关紧要)。所以想象一个小方形标线留在屏幕的中心,当您单击“捕获”按钮时,仅存储该方形中的点。
我对 Tango 的 API (Java) 还是很陌生,并且正在尽我所能去学习,但这有点让人不知所措。我想象只是迭代点云并拉出距离屏幕中心一定距离的点,但我不太确定如何实现这一点。我可能是错的,但也许我需要将世界坐标(目标框架)转换为设备显示坐标(基础框架)?
任何帮助,将不胜感激..
c# - Intel Real Sense C# Recording stream to a file
I am trying to use the Intel Real Sense SDK to acquire some guided frames and then I am trying to stitch them using the Intel Stitching algorithm. However, the SetFileName function is not writing the file to the directory. Can you please help?
#xA;java - (处理)如何根据屏幕的XY轴移动3D对象,而不是世界的X,Y,Z(PeasyCam)
我正在编写一个 3D 草图,其中用户在左键单击和移动鼠标的同时使用 peasyCam 旋转相机。问题是我想在按下右键时移动对象,以便用户可以在屏幕的 X 和 Y 轴上拖动对象。当然,我知道如何使用 mouseX 和 mouseY 输入来修改平移,但只能跨越 3D 空间坐标,如下面的 GIF 所示:
图像中发生的事情的示例代码:
我需要的是能够仅在屏幕 X/Y 轴上拖动球体,在固定的 Z 上,如下图所示(我对我正在寻找的行为进行的简单模拟)。
PeasyCam 用于探索 3D 空间。这个问题可能很难理解。问题是关于在 3D 世界上移动对象,使用屏幕/画布 2D 坐标使对象跟随光标的移动。如果鼠标向左移动(x 轴减小),对象应该在屏幕上向左移动,而不仅仅是在世界 X 轴上。这是第二个示例图像的行为方式,但仅通过模拟 3D 空间来实现,而没有实际旋转到 x、y、z 轴。
我一直在用这个东西挠头,我似乎无法弄清楚。否则我不会在这里问。提前谢谢各位。
gml - 如何在 GML 中创建 3D 抖动相机效果
我目前正在从事 GameMaker:S 中的一个项目。
我想知道如何在 3D 摄像机左右摆动的情况下创建效果,就好像它被一个手不稳的人握着一样?几天来,我一直在试图弄清楚一些事情。
干杯。
qt - Qt3D如何将旋转轴移动到物体的中心?
我正在开发一个简单的 3D 应用程序,在该应用程序中,我根据从 MPU6050 传感器读取的四元数值旋转 3D 对象。
我使用了 simple-qml 示例中的以下代码作为参考:
我面临的问题是旋转发生在箭头的头部(3D 对象)而不是箭头的中心,并且某些四元数值的对象也会缩放。
我需要更改哪些内容才能单独围绕其中心旋转对象而没有任何缩放效果?
另外,我也尝试了三个projectionType。
我需要 3D 的行为类似于以下 youtube 链接中的行为: Arduino MPU6050 示例
opencv - 无法运行 tune_blockmatcher 和 image_to_pointcloud 程序
我能够在网络摄像头上捕捉图像并使用 erget 的 StereoVision 库很好地校准它们。
但是,在尝试执行 tune_blockmatcher 和 images_to_pointcloud 时,我发现以下错误,因为 StereoBM 和 StereoSGBM 类无法导入。
我正在运行的操作系统是 Windows7,运行 OPENCV 3.4.0 和 Python2.7,安装了带有“pip install StereoVision”的立体视觉库
这个问题有什么解决方案吗?