假设我有一个对象,我从一个角度的 kinect 获得了 RGB 数据和深度数据。然后我稍微移动了 kinect,这样我就可以从不同的角度拍摄第二张物体的照片。我试图找出最好的方法来确定 kinect 相机根据两个图像的对应关系从其原始位置平移和旋转了多少。
我将 OpenCV 用于某些图像处理任务,并且研究了 SURF 算法,该算法似乎从两个 2D 图像中找到了很好的对应关系。但是它没有考虑深度数据,而且我认为它对多张图片效果不佳。另外,我不知道如何从通信中获取翻译/旋转数据。也许我看错了方向?
注意:我的长期目标是“合并”多个图像以从所有数据中形成 3D 模型。目前,如果我指定 kinect 所在的角度,它有些工作,但我认为通过查找对应关系而不是手动指定参数来减少所涉及的“错误”(即点从它们应该在的位置略微偏移)要好得多