问题标签 [pykinect]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - PyKinectv2 身体跟踪计数
pykinect 和一般 kinect 的新手——试图简单地获取当前被跟踪的物体的数量。不需要骨骼或关节数据。只是想获得当前框架中的物体的运行计数。我正在使用 kinect-v2 和 pykinect2。
更具体地说,我正在尝试跟踪框架中有多少物体以及自该值更改以来经过的时间。(0 人对 1 人,1 人对 2 人等)由于 pykinect 的内置示例和它们循环的方式,这已被证明是困难的。最新尝试(现在使用已解决的代码更新):
python - 如何使用 pykinect2 调用多个 kinect2 设备
是否可以使用 pykinect2 使用多个(两个)kinect2 设备?我没有找到有关如何调用第二个设备的任何信息。默认情况下,图像来自主 kinect。我很乐意为您提供任何建议,谢谢!
我的 kinect 初始化代码
kinect = PyKinectRuntime.PyKinectRuntime(PyKinectV2.FrameSourceTypes_Depth | PyKinectV2.FrameSourceTypes_BodyIndex)
depth_width, depth_height = kinect.depth_frame_desc.Width, kinect.depth_frame_desc.Height
python - 如何在 python 中从 kinect 读取深度图和 rgb 帧?或使用微软 SDK
我正在使用python开发一个集成系统。第一步,我想使用 RGBD 相机提取 3D 人体姿势。对于这个项目,我有 microsoft Kinect V2。我知道它很容易使用,并且 Kinect 功能,如通过 C++ 和 C# 中的 Microsoft SDK 的姿势和深度图,但我希望在 python 中使用它。我搜索了很多,我发现了一些东西。这是我的尝试总结:有一个名为PykinectV2的包装器,它允许在 Python 中公开 Kinect for Windows v2 API,但在使用过程中,我收到了这个错误:
我检查了这些问题,但它们根本没有帮助。我尝试使用 OpenCV 直接读取框架并按照此说明进行操作。但链接已经过时,所有替代安装方式都会给我错误。
在所有这些尝试之后,我至少使用freenect2来获得深度和 RGB 帧。
我的问题无处可寻:
有没有办法在 python 中从 Microsoft SDK2 中提取 3D 姿势?如果没有,是否有一种简单的方法可以从 RGB 和深度图估计 3D 骨架姿势?有没有在 python 中使用 Kinect 的常规方法?
我接受所有建议并很高兴听到它们。
python-3.x - 在 python3 中访问 kinect 视频
因此,我正在开展一个学校项目,该项目涉及跟踪乒乓球并预测它将采用的路径。我让它与网络摄像头一起工作,但没有 z 坐标,并且使用屏幕上的点而不是现实世界的点已经大大降低了速度的计算。所以我打算切换到 xbox 360 kinect 我必须处理这两个问题。从我的在线阅读来看,这不应该是一个巨大的转变,因为我已经在使用 openCV 进行跟踪。然而,经过我所有的在线研究并最终将 pykinect 安装在我的 pycharm 项目环境中,我遇到了障碍。我在网上找到了一些关于如何访问彩色视频和深度的示例。然而,当我拉起深度视频时,它被侧向旋转并且全是黑色的。当我尝试使用使深度视频适用于彩色视频的相同过程时,它要么崩溃,要么只是再次拉起深度视频。我发现的其他颜色示例初始化了窗口,然后它变得无响应。提前感谢任何帮助。我已经安装的 pykinecthttps://github.com/shrirangkadam/pykinect-python3.6/blob/master/Examples/kinect.py这个github上给出的例子变得没有响应。下一个代码是我为深度相机所做的工作。
python - 如何使用pykinect融合深度图和颜色图
现在我已经完成了Kinect深度相机和RGB相机的标定,用MATLAB得到了相机的内、外参数FX、FY、CX和cy,并用外参数计算了R和T。下一步我需要做的是使用pykinect和python 3来完成Kinect深度图和颜色图的整合,但是我现在还没有找到解决方案。
open3d - 将一系列 RGB 图像和深度文件转换为 mkv 文件格式
我有来自外部相机的一系列 png 和相应的深度文件(与相应的图像对齐)。
RGB:1.png 2.png 3.png 等 150.png
深度:1.txt 2.txt 3.txt 等 150.txt
我在另一个名为 camera.txt 的文件中也有内在函数和相应的相机信息。
我的目标是将这些图像和深度文件转换为 mkv 文件,以便利用 pykinect 的身体跟踪器 ( https://github.com/ibaiGorordo/pyKinectAzure )
到目前为止,我已经能够将图像和深度文件转换为 open3D RGBD 对象。<class 'open3d.cpu.pybind.geometry.RGBDImage'> 见:http ://www.open3d.org/docs/release/python_api/open3d.geometry.RGBDImage.html
我认为我们需要通过 azure kinect 阅读器(https://github.com/isl-org/Open3D/blob/0ec3e5b24551eaffa3c7708aae8630fde9b00e6c/examples/python/reconstruction_system/sensors/azure_kinect_recorder.py#L34)运行它,但这似乎打开相机以获得额外的输入。
如何将此 rgbd 图像保存为 mkv 文件格式以读入 pykinect 阅读器?我