我将使用 Panasonic LUMIX GH5 和 azure Kinect 设置我的 RGBD 相机,就像深度套件影院一样。
depthkit 不提供原始深度数据,而是提供 obj 序列文件。我需要与 RGB 图像对齐的深度缓冲区。
所以我开始为它编写软件。(我已经用 SmallRig 固定装置修复了我的 Panasonic LUMIX GH5 相机和 azure Kinect。)
使用 OpenCV 的 solvePnP 函数获得 GH5 和 Azure Kinect RGB 传感器的外部参数后,如何使用它们将 GH5 彩色图像与 Azure Kinect 深度图像对齐?
还是我应该采取另一种方法来实现这一目标?
我找不到这个问题的任何想法或资源。
在 Azure Kinect 文档中,我在 Azure Kinect SDK 中找到了“k4a_transformation_depth_image_to_color_camera_custom”函数。
这种方法对我的情况有用吗?如果为真,我怎样才能获得其参数的k4a_transformation_t值?