3

关于计算机视觉的另一个问题。

相机矩阵(也称为投影矩阵)通过以下关系将 3D 点X(例如在现实世界中)映射到图像点x (例如在照片中):

l **x** = P **X**

P 描述了相机的一些外部和内部特性(它的方向、位置和投影属性)。当我们提到投影属性时,我们使用校准矩阵 K。同样,R 表示相机的旋转,t 表示它的平移,因此我们可以将 P 写为:

P = K [ R | t ]

[ R | t ] 表示矩阵 R 和 t 的串联。

R  is a matrix 3 X 3
t is a vector 3 X 1 
K is a matrix 3 X 3
[R | t ] is a matrix 3 X 4
As a consequence, P is a matrix 3 X 4

好了,介绍够了。我想找到相机矩阵P的翻译。根据Computer Vision with Python一书中的代码,可以找到这样的:

def rotation_matrix(a):
    """ Creates a 3D rotation matrix for rotation
    around the axis of the vector a. """
    a = array(a).astype('float')
    R = eye(4)
    R[:3,:3] = linalg.expm([[0,-a[2],a[1]],[a[2],0,-a[0]],[-a[1],a[0],0]])
    return R

tmp = rotation_matrix([0,0,1])[:3,:3]
Rt = hstack((tmp,array([[50],[40],[30]])))
P = dot(K, Rt)
K, R = linalg.rq(P[:,:3])

# This part gets rid of some ambiguity in the solutions of K and R
T = diag(sign(diag(K)))
if linalg.det(T) < 0:
    T[1,1] *= -1
    K = dot(K, T)
    R = dot(T, R) # T is its own inverse

t = dot(linalg.inv(K), P[:,3])

代码是自包含的。这Rt就是矩阵[R | t]P像往常一样计算并执行 RQ 分解。但是,我不明白那部分。为什么我们只取前 3 列?K^{-1}然后我们得到平移向量作为P 和前 3 列的点积。为什么?我还没有找到理由,但也许这是我明显遗漏的东西。

顺便说一句,代码似乎有点不对劲。当我运行它时,我得到一个翻译向量[ 50. -40. 30.],而不是array([[50],[40],[30]])我们用作输入的那个。我们应该得到完全相同的结果。我不知道这是否是由于旋转矩阵。我也将不胜感激任何帮助。

谢谢!

4

1 回答 1

4

您将平移向量计算为inv(K)的第 4 列P的乘积。请注意,在您的代码中它说

t = dot(linalg.inv(K), P[:,3])

投影矩阵的第四列在哪里P[:,3],因为索引从 0 开始。这意味着返回t是预期的,因为第四列也是P = [KR | Kt]如此Ktinv(K) * Kt = t

您可以再次将 RQ 分解P[:,:3]为校准矩阵K和旋转矩阵,因为校准矩阵是上三角矩阵,而旋转矩阵是正交矩阵。RP = [KR | Kt]

至于为什么你得到的翻译向量与你预期的不同,我认为这可能是因为QR 分解通常不是唯一的。R根据维基百科,只有当我们要求所有对角线元素都是正数时,它们才是唯一的。在您的情况下,这R是上三角矩阵K

如果你的矩阵K在对角线上的任何地方都有一个负元素,你可能会K从 QR 分解中得到一个不同的(也许只有一个符号不同)。这意味着您不会得到t预期的回报。

于 2012-10-21T00:43:21.557 回答