问题标签 [openni]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
5288 浏览

unity3d - 使用带有 OpenNI 的 Kinect 在 Unity 中检测手势

我的 Unity 项目中有一个 3D 模型,我有一个基于键盘箭头键(左/右)旋转相机的 JavaScript。

现在,我需要一个脚本来检测水平滑动手势并返回一个用于旋转相机的向量。

我正在使用带有 PrimeSense OpenNI/NITE 的 ZigFu SDK。ZigFu SDK 附带示例脚本,其中之一是 SwipeDetector - 我想知道它是如何工作的?

我的设置: 我有 3 个GameObjects:一个 3D 模型、一个 MainCamera 和一个定向灯。

那么,如何SwipeDetector在我的项目中使用脚本呢?我现在的做法是 1)创建一个空的游戏对象“SwipeDetection”,2)从 ZigFu 中“拖放”SwipeDetector脚本。我已经在SwipeDetector脚本中输入了日志,但我没有看到它们。

0 投票
1 回答
4396 浏览

opencv - 使用 Kinect 检测地板上的物体

假设我有一个指向地板的 kinect。

如果我在地板上放置 3 或 4 个物体,我如何确定这些物体所在的平面?

如何检测该地板上颜色鲜艳的物体?

0 投票
2 回答
1645 浏览

tracking - Kinect + OpenNI:如何删除用户

我正在使用用户跟踪:我已经注册了回调(User_NewUser、User_LostUser、Pose_Detected、Calibration_Start、Calibration_End)。当我进入传感器区域时,我以正确的方式被检测和校准。但是当我离开传感器区域(里面没有其他人)时,我希望程序调用回调“User_LostUser”,但似乎没有这样做。(事实上​​,当我再次进入时,传感器仍然跟踪我!)我希望当用户离开场景时,程序取消注册/删除他并重新启动以检查新用户:有人可以帮助我吗?

0 投票
3 回答
6305 浏览

c++ - c ++随机无法解释的错误

我正在使用 OpenNi、NITE 和 OpenGL 在 Visual Studio 2008 中创建一个 kinect 项目。

在开发过程中随机出现以下错误:

从“C:\Program Files\Microsoft SDKs\Windows\v6.0A\bin\rc.exe”返回错误结果 1。

我没有运气搜索过互联网。

我能够创建一个新项目并复制我的所有代码,它工作正常,但这不是我每天都想做多次的事情。

如果需要更多信息,我很乐意提供。

编辑完整的输出窗口读取

0 投票
0 回答
308 浏览

kinect - OpenNI 1.5 更改列表?

我使用的是 OpenNI v1.5.2.23,但我发现的大多数示例都是针对 1.0.0.23,所以我每次都必须更改代码以使用新功能,而不是过时的功能。

例子:

我正在查看旧的,然后我转到较新的示例或文档以找到正确的新方法/类/属性,但这非常耗时。

所以问题是,有没有人列出任何变化的清单?(OpenNI 附带的更新日志对我帮助不大)

0 投票
1 回答
580 浏览

c# - 为什么我的电脑上的 kinect 演示很慢?

当使用 SimpleOpenNI 和处理时,我有一个平滑的骨架视图,大约 30fps。使用 VC# 和骨骼跟踪示例,它似乎大约 10fps。仿佛有什么东西挡住了它。

为什么它这么慢,我如何让它像处理中一样快?

pastebin.com/1La80sRU 是 c# 代码基础 - 它是原始的。

0 投票
1 回答
925 浏览

java - OpenNni:颜色坐标到深度坐标

我想知道如何将我从全分辨率彩色图像中获取的坐标转换为深度流中的坐标。

例如,我从全分辨率颜色中得到 (763,234),我想知道深度图像中的 (x,y,z) 是什么?(顺便说一句,我在 java 中这样做,但 c++ 中的答案可能很容易翻译)

提前谢谢

0 投票
1 回答
893 浏览

visual-studio-2010 - CV_CAP_OPENNI 不适用于我

我正在将 kinect 与 OpenCV 一起使用。我在没有 Cmake 的情况下对其进行了配置。我已经包含了所有内容,但是当我编写以下代码时:

我在屏幕上看到“错误”这个词。我认为 Xncore.dll 有问题如何添加它或我的代码有什么问题?

0 投票
2 回答
92 浏览

c++ - cpp返回好奇心

OpenNI 中的很多函数返回如下:

我现在想知道什么是 XN_C_API 和 XN_C_DECL。好奇而已!

0 投票
2 回答
953 浏览

c++ - 可以从播放中更改 AlternateViewPointCap 或 MirrorCap

我正在处理其他人使用 OpenNI 记录器模块记录的一些数据。不幸的是,他们在录制过程中不小心将镜像功能设置为开启,所以我遇到了一些问题 1. 使用 MirrorCap 镜像深度和 2. 使用 AlternateViewPointCap 将深度与 rgb 对齐。我尝试从我的深度节点访问这些功能,如下所示:

然而,这并没有奏效。即使在我将镜像设置为 false 之后,g_depth 上的 IsMirrored() 命令仍然返回 true,并且 alternateviewpointcap 不会更改我从生成器接收到的深度图。

我也尝试通过一个模拟节点来做到这一点:

这也不会影响我从 m_depth 获得的深度图。对于如何使我的颜色和深度信息对齐的任何和所有建议,我将不胜感激,无论多么 HACKY。这些数据很难记录,我需要以一种或另一种方式使用它。

我当前的解决方案是创建模拟深度节点并使用我自己的例程翻转所有像素,然后使用 SetMetaData 函数进行设置。然后,我使用 OpenCV 通过让用户单击 4 个点来创建从 RGB 图像到深度图像的透视变换。然后我将此变换应用于 rgb 框架以使值对齐。它并不完美,但它可以工作 - 但是,为了其他可能需要使用数据的人,我想进行更适当的修复。