1

我正在尝试使用 KITTI 开放数据集进行深度单目视觉里程计我尝试使用这个repo

它使用此代码将姿势转换为 6DoF

def get6DoFPose(self, p):
    pos = np.array([p[3], p[7], p[11]])
    R = np.array([[p[0], p[1], p[2]], [p[4], p[5], p[6]], [p[8], p[9], p[10]]])
    angles = self.rotationMatrixToEulerAngles(R)
    return np.concatenate((pos, angles))

def isRotationMatrix(self, R):
    Rt = np.transpose(R)
    shouldBeIdentity = np.dot(Rt, R)
    I = np.identity(3, dtype=R.dtype)
    n = np.linalg.norm(I - shouldBeIdentity)
    return n < 1e-6

def rotationMatrixToEulerAngles(self, R):
    assert (self.isRotationMatrix(R))
    sy = math.sqrt(R[0, 0] * R[0, 0] + R[1, 0] * R[1, 0])
    singular = sy < 1e-6

    if not singular:
        x = math.atan2(R[2, 1], R[2, 2])
        y = math.atan2(-R[2, 0], sy)
        z = math.atan2(R[1, 0], R[0, 0])
    else:
        x = math.atan2(-R[1, 2], R[1, 1])
        y = math.atan2(-R[2, 0], sy)
        z = 0
    return np.array([x, y, z], dtype=np.float32)

模型输出也采用相同的格式(6DoF)

问题是如何评估 6DoF 结果,因为此评估工具 ( kitti-odom-eval ) 仅支持以下两种格式

# First format: skipping frames are allowed
99 T00 T01 T02 T03 T10 T11 T12 T13 T20 T21 T22 T23 

# Second format: all poses should be included in the file
T00 T01 T02 T03 T10 T11 T12 T13 T20 T21 T22 T23 
4

1 回答 1

0

您的模型输出是带有欧拉角的相对位置,用于旋转,连接到平移。

对于评估,您必须:

  1. 将您的旋转和平移转换为同质矩阵 4x4 -> 为此,您必须将欧拉角转换为旋转矩阵,然后将旋转矩阵 3x3 与平移向量 1x3 连接起来,并在末尾附加一个额外的行 [0,0,0,1]矩阵得到齐次矩阵。

  2. 将您的相对位置 4x4 转换为绝对位置-> 您在Tk中的绝对位置是相对位置Trel到前一个绝对位置Tk-1的点积,其中 T 是帧索引为 k 的齐次矩阵

Tk = Trel @ Tk-1

第一个绝对位置取决于您的数据集和您想要做的工作。默认情况下,基本绝对位置是 2-D 数组 4x4,对角线上一个,其他地方为零(在 numpy np.eye(4) 中)因此,要在序列中转换整个相对位置,您需要将基本绝对位置乘以所有相对位置

Tk5 = Trel @ Tk4 # 其中 Trel 是第 4 帧和第 5 帧之间的相对位置

  1. 步骤 2 完成后,您将拥有包含Tn绝对位置的绝对位置。那么您必须展平每个同质 4x4 矩阵并获得一个包含 12 个元素的向量,并将每个展平的同质 4x4 矩阵写入文件中!

KITTI 是视觉里程计中必须流行的数据集,我认为阅读本主题和参考链接可以帮助您:Visual Odometry, Kitti Dataset

于 2022-01-09T00:47:40.573 回答