我知道这已经传遍了整个网络。我浏览了很多,发现了很多关于手势识别的信息。但是在阅读了大部分似乎都在 Kinect 官方 SDK、微软的 SDK 上工作之后我变得更加困惑,我不想使用它们。
我需要为 Linux 开发它,并且想知道 OpenNI,NITE 是否让我能够灵活地识别手势。
我正在尝试开发一个手语程序,它可以识别手势并在屏幕上绘制东西(球体、立方体等),
谁能给我一个明确的指导来开始这个项目。我不知道从哪里开始。
欢迎任何帮助。
谢谢
为了开始理解手势,我建议查看我不久前发表的一篇博客文章: http ://www.exceptontuesdays.com/gestures-with-microsoft-kinect-for-windows-sdk-v1-5/
这个,加上它链接到的帖子,进入了“手势”的组成部分以及如何使用 Kinect for Windows SDK 来实现它们。
你也可以查看你的 Kinect Toolbox,它也为官方 Kinect SDK 做手势:http: //kinecttoolbox.codeplex.com
这些将使您对如何处理手势有一个很好的理解。然后,您可以将这些概念和想法转移到 OpenNI 环境中。
如果在您的手语系统中您想使用手势,您可以查看Kinect 3D handtracking。如果它包括全身运动,那么看看KineticSpace。这两个工具都适用于 linux,但第一个工具也需要启用 CUDA 的 GPU。
我认为手势识别不取决于你使用的是 Kinect 官方 SDK 还是 OpenNI,如果你能从 Kinect 中获取骨骼数据或深度图像,那么你就可以从骨骼与时间的关系中提取手势或姿势。据我所知,这些 SDK 都提供了这些信息。
我在windows上开发了kinect,但原理是一样的,还是建议先了解一下手势识别的原理,然后再找其他SDK做识别的方法。