问题标签 [openkinect]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
linux - 我奶奶的手势识别(Kinect)Linux
我正在考虑用 Kinect 做一个项目,让我的奶奶可以控制她的电视,而不会被遥控器吓倒。所以,我一直在研究基本的手势识别。目的是当程序检测到右手正在“挥动”时,通过向电视发送正确的 IR 代码来调高电视的音量。
问题是,无论我在哪里看,我似乎都找不到一个基于 Linux 的教程来展示如何通过手势来做某事。要注意的另一件事是,除了调试窗口之外,我不需要任何 GUI,因为这会使我的程序减慢一点。
有没有人知道某个地方可以让我循环,不断检查一些手势,当它这样做时,我可以控制某些东西,而根本不需要任何 GUI,而且在 Linux 上?:/
我很乐意选择任何语言,但我的经验围绕着 Python 和 C。
任何帮助都将不胜感激。
提前致谢
马特
kinect - 是否可以在 OpenNI 2.x 中创建合成或修改现有的 .ONI 文件?
是否可以在 OpenNI 2.x 中创建合成或修改现有的 .oni 文件?我知道在 1.x 中使用 MockDepthGenerator (基于 NiRecordSynthetic 示例)是可能的,但看起来这个功能在 2.0 中不再可用。基本上,我正在尝试将一些 Kinect .xed 录音转换为 .oni 格式,同时修改深度图像。
image-processing - 如何在 Kinect 中锁定做出特定手势并可能会消失的人?
我正在使用 Kinect SDK 制作这个程序。我想跟踪给出特定手势的人的骨架。即使他离开了 kinect 相机的视线,我也想继续跟踪他。有没有办法使用 Kinect SDK 或任何其他用于 Kinect 的库来做到这一点?
python - Simplecv and openkinect blob detection issues
I am currently on a robotics team for my high school and my objective is to use our kinect to detect the balls in this year's game by using simplecv and openkinect. I am currently stuck on an issue that my mentors and I cannot seem to resolve. What the code does is it takes a live-depth map feed from the kinect and binarizes it, once it has done that it looks for blobs and tries to find the circular blobs. Finally it draws a circle over the circular blob. The issue is the code is able to find blobs no problem, but it's not able to find the circular ones. I am at a dead end and am hoping someone in the community will be able to please help me. Thank you, here's the code and an image of what is seen
c++ - 如何在 OpenCV 中对齐 Kinect 的 RGB 和深度图像?
我有一个 C++ 项目,我在其中使用 OpenCV 和 Libfreenect。我不想包含像 OpenNI 这样又大又重的东西,并在此过程中创建 OpenCV 安装依赖项。我想使用此处提供的校准信息来消除和对齐 RGB 和深度图像。
根据相机矩阵和畸变系数分别对图像进行去畸变是很容易的。但现在我很困惑如何使用校正和投影矩阵来对齐 RGB 和深度图像,以便它们从相同的角度向我展示相同的东西。在搜索了相当长的一段时间后,我无法确定它应该如何与 OpenCV 一起工作。可能会使用reprojectImageTo3D()和warpPerspective()是一个模糊的估计,但我不确定如何使用。
我该如何解决这个问题?我正在使用旧的 XBOX360 Kinect(原始差异值范围为 0-2047)。
更新
这是我到目前为止编写的部分代码:
我直接使用了这些数字,而不是将它们分配给变量,但这在理解逻辑上应该不是问题。在这一点上,我应该做以下事情:
但我不明白我该怎么做,确切地说。也许我完全走错了方向。但我找不到任何这样做的例子。
kinect - Kinect 作为网络摄像头 Ubuntu 12.04
有没有任何已知的方法可以在 Linux 环境中将 Kinect 用作网络摄像头,也许在某种程度上使用 openkinect?
opencv - 将 libfreenect 和 OpenCV 与 cmake 一起使用
所以我正在尝试通过使用 libfreenect 驱动程序和 OpenCV 来使用 Kinect。我希望能够使用 CMake 创建项目。我能够为我获得正确的 CMakeList 以便能够加载 OpenCV 库。现在我想使用 kinect 输入视频,但找不到任何帮助。
我也在笔记本电脑上使用 Ubuntu 12.04 64bit。
如何使用 Cmake 做到这一点?
ps 我能够正确安装 libfreenect,演示程序运行良好。
computer-vision - 将深度图像与 RGB 图像对齐
我正在尝试使用 Kinect 使用 Python 和 libfreenect 捕获的图像生成点云,但我无法将深度数据与 Kinect 获取的 RGB 数据对齐。
我应用了Nicolas Burrus 的方程,但两个图像转得更远,我的代码有问题吗:
是不是我做错了什么?任何帮助表示赞赏
kinect - Windows 7 上的 Kinect v2
所以我终于在邮件中收到了我的两台 Kinect v2,并期待从它们那里获得一些原始数据,看看它们之间的干扰有多大。我去下载 SDK,但由于某种原因,我从未注意到 Windows 8 的要求......因为不支持 Windows 7。
这感觉非常虚假和不必要,但是我对此无能为力。在我浪费一些钱将我的机器升级到我真的不想要的操作系统之前,有没有办法让 Kinect v2s 与 Windows 7 机器(甚至可能是 Ubuntu)通信?我不需要任何花哨的骨骼检测或任何东西;我只想要原始xyz-rgb
数据。我正在阅读有关 OpenNI(以及他们的新 Apple 霸主)的信息,我希望他们最后的开源发行版能奇迹般地与 Kinect v2s 前向兼容?
TL;DR:是否有任何免费的 SDK 可以与 Windows 7-64 位上的 Kinect v2 接口?
java - Java 同时使用 libfreenect 和 OpenNi
在我的项目中,我使用 Xbox kinect 来识别手势。这工作正常。所以现在我需要来自系统的某种反馈,我决定使用 kinect 前面的 LED。OpenNi 驱动目前不支持 LED 控制。为此,我发现 OpenKinect libfreenect 驱动程序是一种流行的替代方案。
你们中有人知道我如何在同一台机器上同时使用 Openni 和 libfreenect 吗?
我正在开发一个 ubuntu 64 位系统。