问题标签 [kinect-v2]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
camera-calibration - 颜色空间到相机空间的变换矩阵
我知道可以使用CoordinateMapper完成点转换,但我没有使用 Kinect v2 官方 API。
如果有人可以分享转换矩阵,我真的很感激,它可以将色彩空间转换为相机空间。
一如既往,非常感谢。
c# - 在 Kinect v2 中获取每个 3D 点的 RGB 值
我对 Kinect v2 CoordinateMapper API 感到困惑。我想在 Kinect v2中获取每个 3D 点(即CameraSpacePoint )的 RGB 值。
请看下面的代码片段:
3D 点存储在camerapoints
变量中。我想要每个 RGB 值camerapoints
。换句话说,请看下面的伪代码:
一如既往,非常感谢。我真的很感谢你的友好回应。
c# - Kinect v2 中的索引超出了数组的范围
我正在尝试获取 Kinect v2 中每个 CameraSpacePoint 的 RGB 值。我能够获取 CameraSpacePoints 和 Color 像素。但似乎从 CameraSpacePoints 到 Color 像素的映射在我的代码中被破坏了,这导致我出现 IndexOutOfRangeException。
请参阅下面显示数据收集部分的代码片段:
请参阅下面显示 ColorSpacePoints 的 RGB 值的代码:
上面的代码片段抛出以下错误:
为了调试这个问题,我监控了每个索引,然后计算了最小和最大索引值,如下所示:
令人惊讶的是,最小索引是 -2147483648。有什么猜测吗?我在这里遗漏了一些明显的东西吗?
python - Webots 机器人在尝试与外部 Kinect 一起使用时不说话
我正在尝试创建一个 Webots 模拟,当 Kinect 相机检测到一个人时,我希望我的机器人在其中说话。
我有一个连接到 USB 端口的 Kinect V2,它可以通过使用 PyKinect2 和 pygame 运行我的 Python 代码来自行检测一个人。
下一步,我将该代码放入 Webots 环境中,并添加了一个机器人,以便在 Kinect 检测到用户时与用户交谈。然而,当 Kinect 开始运行并弹出窗口时,Webots 时钟停止计时,机器人不做任何事情。在我关闭 Kinect 窗口后,机器人会说出消息,但该代码应该已在 Kinect 代码中执行,如下所示。
我相信这可能是由于 Kinect 和 Webots 有自己的时钟而导致的同步问题,但我不确定。即使是这样,我也不知道该怎么做。欢迎任何建议。
这是我的代码的相关部分,如果需要,我可以提供完整的代码。Kinect 身体检测是此示例的略微修改版本:
kinect - Kinect V2 中原始数据的单位是什么?
我想弄清楚 Kinect V2 中的原始数据是什么?...我知道我们可以将这些原始数据转换为米和灰色来表示深度....但是这些原始数据的单位是什么?为什么 Kinect 捕获的所有图像都是镜像的?
c# - 尝试从 C# 中的 Kinect v2 获取颜色值时出现 IndexOutOfRange 异常
我正在尝试获取 Kinect v2 中每个 CameraSpacePoint 的 RGB 值。在尝试访问转换后的帧数据时,代码正在抛出IndexOutOfRangeException
. 我发现以下几行抛出此错误:
请看下面的完整代码:
代码看起来不错,但是我不确定我在这里缺少什么!如何避免IndexOutOfRangeException
异常?请问有什么建议吗?
matlab - kinect V2 从 matlab 中的原始深度图像获取真正的 xyz 点,无需 visionKinectDepthToSkeleton 或 depthToPointCloud 或 pcfromkinect
有很多方法可以从原始深度图像中获取真正的 xyz,例如 vision.internal.visionKinectDepthToSkeleton 或 depthToPointCloud 或 pcfromkinect 。
问题是不清楚这些功能是如何工作的。所有这些功能都使用 vision.internal.visionKinectDepthToSkeleton 和 visionKinectDepthToSkeleton 是一个 .p 文件并加密。
为什么我想知道它们是如何工作的?因为我想为他们编写一个反函数来获取 xyz 点并将其转换为 424*512 深度图像。
在 kinect V1 中,有一个将原始深度图像数据转换为 xyz 的明确公式,但我找不到任何适用于 kinect V2 的解决方案。
在 matlab 环境中工作对我来说更好,但可以随意使用任何你想要的东西。
提前致谢 !
python-3.x - Kinectv2 的 Libfreenect2 错误
我正在尝试libfreenect2
在 python 3.6 中使用来获取 Kinectv2 的深度矩阵。但是有一个错误。看一下代码。
错误 -
module 'freenect2' has no attribute 'get_depth'
kinect - 应该安装哪些软件/库来使用 python 语言和 linux os 进行 kinect 编程
我们正在使用骨架跟踪在 Ubuntu 中进行“步态分析”项目。启动项目需要哪些库。是否有任何可用的教程可以帮助我们?