0

我正在尝试使用单眼 ORB SLAM2 找到从相机到 ORB 特征点的真实世界距离。

我计算了每个 ORB 特征点的世界坐标与当前关键帧相机位置的世界坐标之间的欧几里得距离。对所有帧重复此过程。这样就得到了当前帧中每个ORB点的距离。

在 Viewer.cc 中

std::vector<MapPoint*> MP = mpTracker->mCurrentFrame.mvpMapPoints;
cv::Mat CC = mpTracker->mCurrentFrame.GetCameraCenter();
mpFrameDrawer->DrawFrame(MP,CC);

在 FrameDrawer.cc 中

cv::Mat FrameDrawer::DrawFrame(std::vector<MapPoint*> DistMapPt, cv::Mat CameraPt)
{
   .
   .
   .

    else if(state==Tracking::OK) //TRACKING
    {
        mnTracked=0;
        mnTrackedVO=0;
        const float r = 5;

        for(int i=0;i<n;i++)
        {
            if(vbVO[i] || vbMap[i])
            {
                cv::Point2f pt1,pt2;
                pt1.x=vCurrentKeys[i].pt.x-r;
                pt1.y=vCurrentKeys[i].pt.y-r;
                pt2.x=vCurrentKeys[i].pt.x+r;
                pt2.y=vCurrentKeys[i].pt.y+r;

                float MapPointDist;
                 MapPointDist = sqrt(pow((DistMapPt[i]->GetWorldPos().at<float>(0)-CameraPt.at<float>(0)),2)+pow((DistMapPt[i]->GetWorldPos().at<float>(1)-CameraPt.at<float>(1)),2)+pow((DistMapPt[i]->GetWorldPos().at<float>(2)-CameraPt.at<float>(2)),2));               

                }
   .
   .
   .

            }


        }
    }

然而,这个计算出的距离既不等于也不可以缩放到实际距离。同样的方法在 RGBD ORB SLAM2 中给出了相对准确的距离。

有没有什么方法可以在单眼 ORB SLAM 中缩放距离?

4

1 回答 1

2

请看这篇帖子:“ORB-SLAM2在初始化时任意定义尺度,作为中值场景深度。在实践中,每次初始化orb-slam2时尺度都是不同的。” 在单目 SLAM 中不可能获得正确的比例,因为您无法从图像序列中估计真实世界的深度。您需要另一个数据源,例如第二个摄像头、IMU、激光雷达、机器人里程计或具有已知真实世界尺寸的标记。在 RGBD 情况下,深度是从深度传感器已知的,因此坐标可以正确缩放。

于 2019-07-26T07:37:27.520 回答