问题标签 [openni]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
unity3d - OpenNI Zigfu - One or more of the following nodes could not be enumerated:
I wanted to try the Zigfu OpenNI
approach for my projects so I installed the following drivers.
openni-win32-1.5.2.23-dev
SensorKinect091-Bin-Win32-v5.1.0.25
nite-win32-1.5.2.21-dev
The samples NISimpleViewer
and NIUserTracker
are working well, but when I tried to test the sample scene Blockman3rdPerson
from Zigfu
I get this error.
I tried to uninstall and install my drivers and still got no luck with running the sample scene. Anyone knows where could I fix this problem?
c++ - 开始使用 openNi 的问题
我刚刚安装了 openNi 库并让我的 kinect 在我的计算机上工作。我的问题是我只是 C++ 的新手编程。
我从这个页面复制了手部追踪的代码:
http://openni.org/Documentation/ProgrammerGuide.html
并将其粘贴到我的 VisualStudio11 beta 项目中。
它一直在说我没有定义变量 xn ......但我不知道 xn 是什么。
如果可以请告诉我如何在代码中定义 de 变量 xn,或者我必须做什么才能使代码正常工作。
实现:这是代码,在我上面提到的页面中
kinect - 有什么方法可以从 kinect 获得稳定/一致的 FPS?
我正在尝试以 .oni 格式记录 kinect 文件,稍后我将尝试与其他传感器同步。因此,即使某些帧是重复的,获得一致的 fps 也是非常重要的。
从我现在看到的情况来看,WaitAndUpdateAll 并不能保证帧率是一致的。我将录制几分钟(20+),所以我需要确保没有漂移!
有谁知道是否可以锁定录制的 fps,如果没有,kinect 的录制 fps 有多稳定?谢谢!
在对这个问题进行了一些调查之后,我整理了以下关于该主题的文章:
http://denislantsman.com/?p=50
把它放在这里,这样感兴趣的人就可以找到它,而不必为这个问题而苦苦挣扎。
java - SimpleOpenNI / Kinect:sceneMap / depthMap 颜色控制
[背景] 我正在帮助一名研究生(MFA)完成一个艺术项目:
我正在尝试控制 depthMap 生成的输出颜色,以便可以独立控制 Red、Green 和 Blue 值。理想的最终结果是,每个 depthMap 生成的值都可以更改为各种深浅的洋红色 (255,0,255),这样每个 SimpleOpenNI 用户就会出现差异化。
到目前为止,我还没有找到在 pde 文件中执行此操作的方法,也没有找到修改 SimpleOpenNI 类以适应相同目标的正确方法。- 无论出于何种原因,tint() 调用都会更改画布的 alpha 值,但似乎不会调整颜色值。
任何适用的建议将不胜感激。
资源:SimpleOpenNI 源 我的 pde:
kinect - hand tracking not working after a reload of openni dynamic library
Our project is (http://www.play4health.com/p4h_eng/) using Ogre 3D
over Ubuntu 11.04
. Except for core services all is based in a plugin architecture taking advantage of Ogre 3d
plugin facilities.
In our plugin architecture plugins can be:
- Videogames
- Interaction methods
Users configure their session creating tuples (videogame, interaction method). The flow is a session is: * User load his session. * User click of one of the tuples for the session and play to videogame with a specific interaction method. * Repeat it until end all activities of the session.
Plugin are loaded/unloaded dynamically by demand.
One of this interaction methods is hand tracking using openni. What is the problem? * Fist time that openni plugin is loading all work perfectly. * Next time that plugin openni has to be loaded system is able to detect gestures but not do hand tracking. Note that all plugin are executed in the same process. Right now only solution is to reboot platform.
This is the code for init and release OpenNI
in our plugin
Any idea about this issue? Any wrong with this code?
c# - 检查手是否被跟踪
如果我握拳或张开手,我想跟踪我的人。
如果您可以在 C# 中提供示例代码,将不胜感激?
非常感谢!
c++ - 在 VS2010 中加载外部符号
我正在尝试调试 OpenNI,所以我下载了源代码,编译,将 OpenNI 项目添加到我现有的解决方案中,包含新的头文件,链接到新编译的库,将 OpenNI 项目引用添加到我现有的项目中,并添加了 .pdb位置到我的 VS 符号位置。
毕竟,我仍然只能在头文件中打断点。每当我在源代码中添加断点时,VS 都会说未加载符号。有什么我没有做/做错的吗?谢谢!
python - 在 OSX 上构建 PyOpenNI
我正在研究一个适当的(或至少是简单的堆栈),以最终通过 OSX 平台上的 python api 从 kinect 获取骨架信息。我发现的大部分信息都非常分散且不连贯。
虽然基于 Windows 的堆栈似乎是微软在其 kinect SDK 之上的自己的 pykinect 似乎非常明显,但我似乎无法弄清楚什么在 OSX 环境中运行良好。
这是我到目前为止编译的信息:
- libfreenect是低级驱动程序的明显来源(这部分工作得很好)
- OpenNI提供框架 + NITE 中间件来提供识别。(不是蟒蛇)
- PyOpenNI - OpenNI 的 python 绑定,支持骨架和其他高级功能。
我得出的结论是,这是迄今为止最推荐的堆栈。我想要实现的是简单的骨架数据,类似于 windows SDK python 包装器为您提供的开箱即用的数据。最终,我将在基于 PyQt 的应用程序中使用它来绘制显示,然后在 Maya 中应用数据。
我的问题分为两部分,如果是最合适的,我会接受任何一个方向的答案......
PyOpenNI 的构建问题
到目前为止,我无法在 OSX Snow Leopard (10.6.8) 或 Lion (10.7.4) 上成功构建 PyOpenNI。两个系统都更新了 xcode。我注意到源文件被硬编码为期望 python2.7,所以在雪豹上我必须确保它已安装并且是默认版本(也尝试了 virtualenv)。
在 Snow Leopard 上,我看到 cmake 进程为 python 找到不同的库、头文件、bin,最终 make 生成了一个 .so,它因“不匹配的解释器”而崩溃。
在 Lion 上,我也遇到了不匹配的解释器崩溃。但是在我通过自制软件安装了python2.7之后,它产生了一个新的错误:
是否有任何特定步骤可以在我缺少的 OSX 上构建它,例如环境变量以确保其指向正确的 python2.7 库?有没有人有这个平台的成功构建过程?
替代问题
这仍然是 OSX 最推荐的堆栈吗?
跟进
我已经接受我自己的答案作为临时工作解决方案。如果有人能提供更好的,我很乐意接受!
c++ - Kinect openCV openNI 不工作
我正在尝试将 kinect 与OpenNI一起使用,当我尝试构建任何程序时,它不会给出任何构建错误,但我在命令行上收到这些错误
我尝试构建随 OpenCV 提供的 (kinect_maps.cpp),仍然给出相同的错误。
我在 Windows 7 64 位上使用 Kinect for Windows。
非常感谢。
kinect - 对齐 oni 文件的深度和 rgb 图像
我有一个 oni 文件,其中深度和 rgb 图像未对齐。我在其他问题中读到,在这种情况下使用 GetAlternativeViewPointCap() 很有用。但是,这不起作用。
我尝试了以下代码:
if (depth.IsCapabilitySupported(XN_CAPABILITY_ALTERNATIVE_VIEW_POINT)) {
depth.GetAlternativeViewPointCap().SetViewPoint(image);
}
在我尝试的 xml 文件中(几次尝试之一)
<Recording file="file.oni" />
<Node type="Depth" >
<Query>
<Capabilities>
<Capability>Alternative View</Capability>
</Capabilities>
</Query>
<Configuration>
</Configuration>
</Node>
……
是否可以将 GetAlternativeViewPointCap 也用于已录制的文件?xml文件应该如何配置?
根据我添加的功能,我收到错误:打开失败:节点被锁定以进行更改!
任何想法?谢!