2

我正在尝试使用来自 KITTI 数据集的立体相机对来估计相机轨迹。该程序在某些时候使用 cv::SolvePNP() 并且对于前 1500 帧它返回了相当好的结果,但之后它就完全疯狂了。

这是我目前正在做的事情:

  1. 加载 2 帧,将它们称为 P 和 Q(一帧是来自立体对的左右图片)
  2. 使用 SIFT/SURF/ORB 获取功能(尝试了所有这些)
  3. 匹配 P 中的特征,以及 P.left 和 Q.left 之间的匹配
  4. 根据匹配,我过滤掉匹配中不存在的关键点。
  5. 我对帧 P 上的点进行三角测量(请注意,我已经有 KITTI 数据集提供的相机矩阵)
  6. 我从 Homogeneous 转换点

现在是最重要的部分,我正在尝试实现我自己的 RANSAC,它将利用 solvePNP 以便从标准 cv::solvePNP 中获得更好的 rvec 和 tvec(请注意,我尝试使用 cv::solvePNPRansac 并且它工作正常但开始一段时间后也失败了)。所以 Ransac 流程是这样的:

7.1 我随机化 3D 空间(P 上的三角点)和 Q.left 上的相应关键点

7.2 我将它们 N 个点(N 是我的 RANSAC 参数)放入 cv::SolvePNP() 以获得在 2 帧之间移动了多少相机(注意我的 dist Coefs 是零矩阵),它返回给我一些 tvec 和 rvec我使用 cv::Rodrigues() 转换为 Matrix

7.3 我连接这些向量

7.4 我尝试使用以下公式将所有三角点(不仅仅是在solvePNP中使用的点)投影回2D图像:

https://i.imgur.com/aMlZw9z.png

(请注意,我没有在左侧得到 1,而是得到了一些 x、y、z 值,因此我将 x 和 y 与 z 分开)。

7.5 我发现 P.left 上的投影点和关键点之间的差异

7.6 现在我的 RANSAC 有一些阈值,我用它来过滤异常值,而不是在 RANSAC 的下一次迭代中使用它们。

7.7 我用新的(过滤的)点重复这个过程 K 次(K 也是 RANSAC 参数)

现在这适用于 80% 的帧,一段时间后它就失败了,因为 solvePNP 收到的分数太少。发生这种情况是因为没有一个投影点实际上超过了距离阈值。所以问题出在前帧的 rvec 和 tvec 中。

真的不知道我将显示代码的哪一部分,请求并编写它。

我预计 rvec 和 tvec 会出现小错误,但错误太高了。

4

1 回答 1

3

显然是由于一堆错误匹配的特征对后来的三角测量过程产生了很大的影响。可以通过实施 RANSAC 或提高匹配阈值来解决问题。

于 2019-11-30T08:52:24.017 回答