我正在尝试从几对两个视点计算 3D 坐标。
首先,我使用 matlab 函数estimateFundamentalMatrix()
来获取F
匹配点(数字 > 8),即:
F1 =[-0.000000221102386 0.000000127212463 -0.003908602702784
-0.000000703461004 -0.000000008125894 -0.010618266198273
0.003811584026121 0.012887141181108 0.999845683961494]
我的相机——拍了这两张照片——用内在矩阵进行了预校准:
K = [12636.6659110566, 0, 2541.60550098958
0, 12643.3249022486, 1952.06628069233
0, 0, 1]
然后,根据这些信息,我使用以下方法计算了基本矩阵:
E = K'*F*K
通过SVD的方法,我终于得到了射影变换矩阵:
P1 = K*[ I | 0 ]
和
P2 = K*[ R | t ]
地点R
和地点t
:
R = [ 0.657061402787646 -0.419110137500056 -0.626591577992727
-0.352566614260743 -0.905543541110692 0.235982367268031
-0.666308558758964 0.0658603659069099 -0.742761951588233]
t = [-0.940150699101422
0.320030970080146
0.117033504470591]
我知道应该有 4 种可能的解决方案,但是,我计算的 3D 坐标似乎不正确。
我用相机拍摄了带有标记点的平面物体的照片。我手动匹配了点(这意味着关于原材料不应该存在明显的错误)。但结果证明是一个带有一点条纹的表面。
我想这可能是因为图片没有处理失真(但实际上我记得我做过)。
我只是想知道这种方法能否解决3D重建问题对吗?特别是当我们已经知道相机内在矩阵时。
由 JCraft 在 8 月 4 日编辑:我已经重做了这个过程并得到了一些显示问题的图片,我将写另一个详细的问题,然后发布链接。
由 JCraft 在 8 月 4 日编辑:我发布了一个新问题:Calibrated camera get matching points for 3D rebuild, Ideal test failed。@Schorsch 非常感谢您帮助格式化我的问题。我将尝试学习如何在 SO 中进行输入,并尝试提高我的语法。谢谢!