我目前正在研究一种 SLAM 算法,并且我成功地以点云的形式收集了深度和 RGB 数据。但是,我只将 Kinect 2.0 接收到的帧显示到屏幕上,仅此而已。
我想收集这些帧,当我移动 Kinect 时,我构建了一个更精细的地图(2D 或 3D),以便它可以帮助我进行定位或映射。
我对地图构建的想法就像我们从许多单个快照创建全景图像一样。
任何人都有线索,想法或算法来做到这一点?
我目前正在研究一种 SLAM 算法,并且我成功地以点云的形式收集了深度和 RGB 数据。但是,我只将 Kinect 2.0 接收到的帧显示到屏幕上,仅此而已。
我想收集这些帧,当我移动 Kinect 时,我构建了一个更精细的地图(2D 或 3D),以便它可以帮助我进行定位或映射。
我对地图构建的想法就像我们从许多单个快照创建全景图像一样。
任何人都有线索,想法或算法来做到这一点?