问题标签 [kitti]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
294 浏览

python - 如何从 KITTI 数据集计算相机的焦距

我研究立体图像的 Kitti 数据集。我有给定的内在矩阵:

如何从这个矩阵计算焦距?

我们知道这个矩阵有表达式:

谢谢。

0 投票
1 回答
474 浏览

image-processing - 用于 KITTI stereo 2015 数据集的两个彩色相机的外在参数和内在参数是什么

我正在使用 KITTI stereo 2015 数据集 ( http://www.cvlibs.net/datasets/kitti/eval_scene_flow.php?benchmark=stereo ) 使用安装在屋顶上的两台摄像机(cam2 和 cam3)的彩色图像。我想知道它们的内在和外在参数。给出了两个校准文件夹:一个是calib,它有.txt文件和参数:

另一个文件夹是data_scene_flow_calib,它有两个用于训练测试的子文件夹。在培训文件夹中有一个名为calib_cam_to_cam的文件夹。在此文件夹内还有带有参数的 .txt 文件:

我想知道,这两个彩色相机的外在参数和内在参数是什么。

0 投票
0 回答
143 浏览

python - 如何在 KITTI 数据集上复制 OpenCV SGBM 的错误值?

我最近一直在研究 KITTI 数据集——特别是立体声子部分。我尝试使用 OpenCV SGBM 方法复制结果。我使用了与 KITTI 网站的 OpenCV 结果页面上指定的所有相同参数。

http://www.cvlibs.net/datasets/kitti/eval_scene_flow_detail.php?benchmark=stereo&result=67877bd6fcc43163421fa0108c7df83bbc69fea3

从视觉上看,视差图看起来不错,并且与 KITTI-OpenCV 评估页面上发布的结果非常相似。但是,当我尝试使用基本事实计算训练数据集的误差时,误差始终为 100%。

OpenCV SGBM-立体计算函数的最大像素值大约为 1000 左右,其中几个图像(大约 5 个图像对)具有更高的值。我相信该函数返回的输出是 int16 类型的。我正在使用 devkit 中给出的评估函数计算错误,当我读取基本事实(GT)并打印出它们范围高达 ~32k 的最大值时。评估函数将 GT 和估计的视差图像除以 256,然后计算绝对差。如果差异大于 3,并且如果单个错误大于 GT 值的 5%,则该像素被计为坏/错误像素,并且总错误以此类坏像素占总像素的百分比给出。由于范围如此不同,如果我使用上述过程,通常所有像素最终都会高于错误阈值。那么,我是否需要对 OpenCV SGBM 的输出进行任何缩放,或者在生成差异/计算错误时我是否遗漏了什么?

0 投票
0 回答
159 浏览

lidar - KITTI 深度图是否显示与相机点或相机平面的距离?

我一直使用 KITTI 原始 LiDaR 扫描数据集作为我的深度研究的基本事实,并认为它们代表了某个点和相机平面之间的距离,即 z 坐标。

例如下图第 364 行的像素深度

在此处输入图像描述

显示在这里

在此处输入图像描述

对于道路上的所有点(图中左侧的尖峰),我得到或多或少相同的距离,并得出结论认为距离是从相机平面开始的。如果不是,应该有一些曲率。我的理解正确吗?

0 投票
1 回答
221 浏览

python - 如何使用 KITTI 里程计数据集评估单目视觉里程计结果

我正在尝试使用 KITTI 开放数据集进行深度单目视觉里程计我尝试使用这个repo

它使用此代码将姿势转换为 6DoF

模型输出也采用相同的格式(6DoF)

问题是如何评估 6DoF 结果,因为此评估工具 ( kitti-odom-eval ) 仅支持以下两种格式

0 投票
2 回答
1874 浏览

computer-vision - 基蒂特征分裂

我想知道什么是Kitti Eigen Split。为什么在深度估计中使用它?我正在使用 Kitti 数据集进行计算机视觉研究。但是,我是计算机视觉术语的初学者。

谢谢,

0 投票
0 回答
369 浏览

c++ - KITTI 数据集有多少地面实况误差?

我用地面实况和 Velodyne 点云数据可视化了 KITTI 里程计数据集。 http://www.cvlibs.net/datasets/kitti/eval_odometry.php

在序列中的循环之后,相机位置的高度似乎不同。我不确定这是正常的还是我误解了一些东西。当您将此数据用作基本事实时,您修改了某些内容还是按原样使用它?

这是加载姿势 txt 文件的代码

这是从附近水平观察的 3D 点云图像。如您所见,循环后的相机位置处于不同的高度。我将 Velodyne 数据转换为相机坐标上的深度值并进行了可视化。然后,汽车的点云也发生了一点偏移。

在此处输入图像描述

这是鸟瞰图,看起来不错。

在此处输入图像描述

这是一张叠加了 Velodyne 深度值的彩色图像。好像也不错。

在此处输入图像描述

0 投票
0 回答
175 浏览

point-cloud-library - Kitti 数据集、bin 和 pcd 数据的后处理

Kitti 数据集的 .bin 文件或 pcd 文件有 64 层。

但我会用我的 3 个 VLP16 激光雷达进行 3D 检测。

  • 为了学习,我想将 Kitti 数据集中的 64 层数减少到 16 或 32 层。

kitti 数据集由一个 .bin 文件组成,该文件可以转换为一个 .pcd 文件。

我可以按照我想要的方向对这些文件进行后处理吗?

0 投票
1 回答
460 浏览

deep-learning - 如何使用掩蔽法在 KITTI 数据集上训练单幅图像深度估计

我正在研究深度学习(监督学习)以从单目图像估计深度图像。并且数据集目前使用的是 KITTI 数据。RGB 图像(输入图像)使用 KITTI 原始数据,来自以下链接的数据用于 ground-truth。

在通过设计一个简单的encoder-decoder网络来学习模型的过程中,结果并不是那么好,所以正在做各种尝试。

在寻找各种方法时,我发现groundtruth只能通过mask来学习有效区域,因为有很多无效区域,即无法使用的值,如下图所示。 在此处输入图像描述

所以,我通过掩蔽学习,但我很好奇为什么这个结果不断出现。

在此处输入图像描述

[训练结果_2]-->>[5]

这是我的代码训练部分。我该如何解决这个问题。

0 投票
1 回答
40 浏览

python-3.x - KITTI 数据集 Visual Odometry 中的“pose_left.txt”是什么?

我注意到pose_left.txtKITTI_VO 数据集中有一个,每行有 7 个数字,例如:

我猜是转换参数,但应该有6个:平移(3)和旋转(3)。为什么要多一个?