0

我正在使用 kinect 做计算机视觉软件。我有我的程序设置,以便它过滤掉超出一定距离的所有东西,一旦有东西进入足够近的地方,大到足以成为一只手,我的程序就会假设它是。

但是,我想扩展此功能。目前,如果手离开深度过滤区域,软件将不再跟踪它的位置。认出手后,无论深度如何,如何跟随手?

4

3 回答 3

0

我没有使用过 Kinect 控制器,但是一旦我使用激光扫描仪返回范围,但仅限于水平面。但我们使用的技术也可以应用于 Kinect。

当我们找到想要识别的对象时,我们计算了对象的中心点[X,Y](将[X,Y,Z]用于 Kinect)。对于下一个“帧”,我们从 寻找给定半径内的所有点r[X,Y]对于我们找到的那些点,我们计算了一个新中心[X,Y],我们将其用于下一个“帧”,依此类推。

我们使用最大可能的对象速度和帧速率来计算r确保对象不会从两个测量帧之间的跟踪中逃脱的最小可能。

于 2011-02-18T20:45:14.760 回答
0

您可以查看平均偏移跟踪: http: //www.comp.nus.edu.sg/~cs4243/lecture/meanshift.pdf

然后,即使 blob 变小或变大(更远或更近),也可以跟踪它。

于 2011-02-20T22:29:22.100 回答
0

我没有使用过 Kinect 控制器,但您可以尝试在以下位置实现的快速模板匹配算法: https ://github.com/dajuric/accord-net-extensions

只需使用您的深度图像而不是标准灰度图像。样品包括在内。

PS 这个库还提供了其他的跟踪算法,如卡尔曼滤波、粒子滤波、JPDAF、Camshift、Mean-shift(包括样本)。

于 2014-08-18T14:07:29.607 回答