问题标签 [kinect-v2]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
kinect-sdk - Kinect V2 - 加载在 Kinect Studio 中记录的 XEF 文件,访问颜色和深度帧
我需要从使用 Kinect Studio 记录的 XEF 文件中获取颜色和深度帧。
我在直接使用 Kinect 时访问颜色和深度帧的代码如下所示:
在private void Reader_MultiSourceFrameArrived(object sender, MultiSourceFrameArrivedEventArgs e)
我做我的魔法,这是有效的。
现在我该如何使用预先录制的 XEF 文件呢?
我知道我可以像这样加载 XEF 文件:
但是我怎样才能从中获得 MultiSourceFrame 呢?
任何帮助是极大的赞赏!谢谢!
raspberry-pi - 如何通过 WiFi 将 Kinect V2 跟踪数据从 PC 流式传输到 Raspberry Pi 3?
我目前正在使用 Kinect v2。我可以用它在 PC 上做各种事情。我接下来要做的是,在 PC 上获取我想要的数据并使用该数据控制 Raspberry Pi(例如,当我将头向右倾斜时,我将使用电机移动 Pi)。我已经整理好了电机和所有东西,但我只是不知道如何使用我在 PC 上的跟踪数据来控制 Pi。
我希望这个问题是有道理的,我对 Pi 和 Kinect 都非常陌生。
谢谢您的帮助!
kinect - 现实世界中的 Kinect v2 点云起源
对于 Kinect v2,点云原点的位置是什么,参考物理 Kinect 的一些固定的外部特征?
对于上下文,我有多个由 Kinect v2 从多个精确已知位置拍摄的点云,但我无法让它们手动排列。(我一直在手动移动原点的位置,希望它能够聚焦)
python-3.x - Python 将 13 位深度 .mat 数据保存为 TIFF 转换为 16 位
我正在将保存为.MAT
文件的 Kinect V2 中的深度数据导入scipy.io.loadmat
到我的 python 3.5 代码中。当我打印出.MAT
数据时,我得到一个uint16
值范围为0 - 8192
. 这是意料之中的,因为 Kinect V2 提供了 13 位深度的图像数据。现在,当我将其保存为TIFF
文件
cv2.imwrite('depth_mat.tif' , depth_arr)
并使用 .The 读取它
depth_im = tifffile.imread('depth_mat.tif')
时,值的范围被放大了。在我的原始.MAT
文件中,最大值是7995
,在保存和读取.TIFF
文件后,最大值变为63728
. 这会影响我将 Kinect 深度映射到现实世界中的实际距离的计算。对此的任何见解都会对我有很大帮助。
我必须在两者之间进行一些图像处理,因此有必要保留原始值。也不是使用cv2.imwrite()
,iftifffile.imsave()
来保存.MAT
文件,图像完全是黑暗的。
我在 Win 64 机器上使用 python 3.5
image-processing - 如何从 Xbox Kinect 获取深度图像并将深度值输出到文件?
我有 Xbox Kinect v2。我需要执行以下操作:
- 对它前面的任何东西进行一次深度测量。把这想象成拍照,但是对于深度值。
- 将每个像素的深度值输出到文件。我将使用这些值进行后期处理,因此我需要将每个深度值与 xy 坐标相关联。
我是 Kinect for Processing 的新手,但我现在正在搜索文档和在线示例。我希望有经验的人能更快地解决这个问题。
python - pykinect2深度帧被截断
我正在尝试使用 PyKinect2 模块从 Kinect v2 设备获取深度帧。我已按照此处提供的示例进行操作。我能够看到深度帧,但它们出现在 PyGame 窗口中被截断,尽管帧的大小应该是 512x424。
我使用get_last_depth_frame()
PyKinect2 提供的方法,并使用以下代码将其绘制在表面上。
python - 使用 pylibfreenect2 从 kinect v2 中提取同步的 RGB 和深度图像
我正在做一个项目,该项目需要我提取 rgb 图像和相应的深度图。由于 RGB 图像和深度图是从不同的传感器获得的,因此它们不会同步。
目前我正在尝试修改pylibfreenect2 官方文档中给出的示例。
从代码中可以看出,我试图在一些固定数量的帧之后将 rgb 图像和深度图保存为 .npy 文件,但由于两者的尺寸不同,所以它们没有用。很短我的目标是提取相同尺寸的 rgb 和深度图像 (424,512)
3d - Kinect v2,将 3D 点云投影到彩色图像中
我正在使用 Kinect V2 来捕获 3D 点云及其相应的彩色图像。为了将一些 3D 模型正确投影到这个彩色图像中,我需要计算从相机到图像空间的有效投影矩阵。由于 Kinect V2 SDK 没有关于 RGB 相机的校准信息,我发现有一种方法叫做坐标映射器类中的MapCameraPointsToColorSpace。
此方法返回一个查找表,其中包含云中每个 3D 点与图像像素之间的对应关系。从表中,我试图计算 RGB 相机内在矩阵(焦距、主点、图像间距因子)。但是使用计算的内在矩阵投影的二维点与查找表中的值之间存在一些误差。我认为发生此错误是因为我没有计算径向失真。我对吗?我应该关心径向失真以通过此查找表获得 3D 到 2D 色点之间的精确映射吗?
camera-calibration - Kinect v2 彩色相机校准参数
我正在寻找 Kinect V2 彩色相机的相机校准参数。有人可以提供这些参数或任何参考吗?
我知道相机校准参数是特定于镜头的,但我对 Kinect v2 使用的默认参数很好。
一如既往,非常感谢。