我尝试将 azure kinect 身体跟踪算法的关节点与深度图像相匹配。问题是,关节的坐标在 x,y,z 中。到目前为止,我试图像这样匹配它:
- 获取到关节的距离
- 用 ((tan(\alpha/2))*distance)/pixelcount/2 计算 x 和 y 轴在该距离上多少毫米/像素
- 以像素 (x_k) (y_k) 为单位计算关节的距离
- 将坐标从 Azure Kinect 坐标系转换为图片坐标系,如下所示:pixelcount_x/2 +x_k 和 pixelcount_y/2 +y_k
- 绘制点。
azure kinect 的坐标系的原点位于框架的中心。我的图像的原点位于图像的左上角。所以第4步的转换应该是正确的。
同样根据官方文档,关节位置和方向是相对于全球深度传感器参考框架的估计。这意味着它使用与深度传感器相同的坐标系,对吗?
深度传感器的坐标系也向下倾斜了 6°,如果我纠正了一半,我会得到更好的结果,但它确实感觉很随意。我必须纠正这种倾斜吗?
我错过了什么重要的东西吗?图一是使用 Microsoft 的示例程序拍摄的,如果您将其与我的图片进行比较,很明显我的坐标不正确。 1是我的图片,2是官方软件制作的。任何帮助是极大的赞赏。谢谢