问题标签 [kitti]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 如何从 KITTI 数据集计算相机的焦距
我研究立体图像的 Kitti 数据集。我有给定的内在矩阵:
如何从这个矩阵计算焦距?
我们知道这个矩阵有表达式:
谢谢。
image-processing - 用于 KITTI stereo 2015 数据集的两个彩色相机的外在参数和内在参数是什么
我正在使用 KITTI stereo 2015 数据集 ( http://www.cvlibs.net/datasets/kitti/eval_scene_flow.php?benchmark=stereo ) 使用安装在屋顶上的两台摄像机(cam2 和 cam3)的彩色图像。我想知道它们的内在和外在参数。给出了两个校准文件夹:一个是calib,它有.txt文件和参数:
另一个文件夹是data_scene_flow_calib,它有两个用于训练和测试的子文件夹。在培训文件夹中有一个名为calib_cam_to_cam的文件夹。在此文件夹内还有带有参数的 .txt 文件:
我想知道,这两个彩色相机的外在参数和内在参数是什么。
python - 如何在 KITTI 数据集上复制 OpenCV SGBM 的错误值?
我最近一直在研究 KITTI 数据集——特别是立体声子部分。我尝试使用 OpenCV SGBM 方法复制结果。我使用了与 KITTI 网站的 OpenCV 结果页面上指定的所有相同参数。
从视觉上看,视差图看起来不错,并且与 KITTI-OpenCV 评估页面上发布的结果非常相似。但是,当我尝试使用基本事实计算训练数据集的误差时,误差始终为 100%。
OpenCV SGBM-立体计算函数的最大像素值大约为 1000 左右,其中几个图像(大约 5 个图像对)具有更高的值。我相信该函数返回的输出是 int16 类型的。我正在使用 devkit 中给出的评估函数计算错误,当我读取基本事实(GT)并打印出它们范围高达 ~32k 的最大值时。评估函数将 GT 和估计的视差图像除以 256,然后计算绝对差。如果差异大于 3,并且如果单个错误大于 GT 值的 5%,则该像素被计为坏/错误像素,并且总错误以此类坏像素占总像素的百分比给出。由于范围如此不同,如果我使用上述过程,通常所有像素最终都会高于错误阈值。那么,我是否需要对 OpenCV SGBM 的输出进行任何缩放,或者在生成差异/计算错误时我是否遗漏了什么?
python - 如何使用 KITTI 里程计数据集评估单目视觉里程计结果
我正在尝试使用 KITTI 开放数据集进行深度单目视觉里程计我尝试使用这个repo
它使用此代码将姿势转换为 6DoF
模型输出也采用相同的格式(6DoF)
问题是如何评估 6DoF 结果,因为此评估工具 ( kitti-odom-eval ) 仅支持以下两种格式
computer-vision - 基蒂特征分裂
我想知道什么是Kitti Eigen Split。为什么在深度估计中使用它?我正在使用 Kitti 数据集进行计算机视觉研究。但是,我是计算机视觉术语的初学者。
谢谢,
c++ - KITTI 数据集有多少地面实况误差?
我用地面实况和 Velodyne 点云数据可视化了 KITTI 里程计数据集。 http://www.cvlibs.net/datasets/kitti/eval_odometry.php
在序列中的循环之后,相机位置的高度似乎不同。我不确定这是正常的还是我误解了一些东西。当您将此数据用作基本事实时,您修改了某些内容还是按原样使用它?
这是加载姿势 txt 文件的代码
这是从附近水平观察的 3D 点云图像。如您所见,循环后的相机位置处于不同的高度。我将 Velodyne 数据转换为相机坐标上的深度值并进行了可视化。然后,汽车的点云也发生了一点偏移。
这是鸟瞰图,看起来不错。
这是一张叠加了 Velodyne 深度值的彩色图像。好像也不错。
point-cloud-library - Kitti 数据集、bin 和 pcd 数据的后处理
Kitti 数据集的 .bin 文件或 pcd 文件有 64 层。
但我会用我的 3 个 VLP16 激光雷达进行 3D 检测。
- 为了学习,我想将 Kitti 数据集中的 64 层数减少到 16 或 32 层。
kitti 数据集由一个 .bin 文件组成,该文件可以转换为一个 .pcd 文件。
我可以按照我想要的方向对这些文件进行后处理吗?
deep-learning - 如何使用掩蔽法在 KITTI 数据集上训练单幅图像深度估计
我正在研究深度学习(监督学习)以从单目图像估计深度图像。并且数据集目前使用的是 KITTI 数据。RGB 图像(输入图像)使用 KITTI 原始数据,来自以下链接的数据用于 ground-truth。
在通过设计一个简单的encoder-decoder网络来学习模型的过程中,结果并不是那么好,所以正在做各种尝试。
在寻找各种方法时,我发现groundtruth只能通过mask来学习有效区域,因为有很多无效区域,即无法使用的值,如下图所示。
所以,我通过掩蔽学习,但我很好奇为什么这个结果不断出现。
这是我的代码训练部分。我该如何解决这个问题。
python-3.x - KITTI 数据集 Visual Odometry 中的“pose_left.txt”是什么?
我注意到pose_left.txt
KITTI_VO 数据集中有一个,每行有 7 个数字,例如:
我猜是转换参数,但应该有6个:平移(3)和旋转(3)。为什么要多一个?