问题标签 [kitti]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
image-processing - Kitti校准矩阵是如何计算的?
我使用其他数据集(没有 kitti),但我需要将其转换为 kitti 数据集格式。我不明白如何在 kitti 中计算校准矩阵。例子:
来自 calib.txt 的相机 2 (P2) 校准矩阵:
我知道
- 是 K - 相机固有的。但是最后一列是什么意思?
我建议,它是从第 0 个相机的偏移量,以像素为单位。从kitti 传感器设置中,我知道 Cam 2 从 Cam 0 偏移 0.06m,沿 X 轴负向偏移。 相机像素大小为 4.65um。但
那么最后一列是什么意思呢?以及如何像在 kitti 中一样计算校准矩阵。
camera - 如何从相机固有矩阵计算 KITTI 相机的水平和垂直 FOV?
我想从 KITTI 数据集中使用的相机的相机内在矩阵计算水平和垂直视野。我需要视野的原因是将深度图转换为 3D 点云。
opencv - 如何使用 OpenCV 将我自己的图像校正到 KITTI 数据集的相机上
根据 OpenCV 的stereo-rectify文档,可以根据两个相机矩阵、它们的失真系数以及从一个相机到另一个相机的旋转平移来校正图像。
我想将我使用自己的相机拍摄的图像从KITTI 数据集校正为立体设置。从他们的校准文件中,我知道所有相机校正之前的相机矩阵和图像大小。他们所有的数据都校准到他们的camera_0。
从这个PNG中,我知道他们每个摄像头相对于汽车前轮和相对于地面的位置。
我还可以在我的相机上进行单目校准并获得相机矩阵和畸变系数。
我在想出第一台和第二台相机的坐标系之间的旋转和平移矩阵/矢量时遇到了麻烦,即从他们的相机到我的相机,反之亦然。
我将相机放在汽车顶部几乎完全相同的高度,并且与前轮中心的距离几乎完全相同,如PNG所示。
但是现在我不知道如何创建联合旋转平移矩阵。在正常的立体校准中,这些由setereoCalibrate函数返回。
我查看了一些关于坐标转换的参考资料,但我没有足够的实践来自己弄清楚。
任何建议或参考表示赞赏!
deep-learning - COCO 对象检测评估指标 vs Kitti 评估
对于我的验证数据集(自己的数据),我使用 COCO 和 Kitti 评估指标进行评估。
我预计 COCO AP(0.5)值和 Kitti 2D AP(iou=0.5)的得分相似。但是我不确定它们是否具有可比性,尽管它们背后的逻辑是相同的(检查 2D 前视图 GT 和 DET 框的 iou>0.5 并计算匹配和精度/召回率)。
COCO obj detection AP 0.5 = 0.59 Kitti 2D AP with iou 设置为 0.5 = 0.33
期望它们具有可比性是否正确?我发现大多数论文只使用其中之一,没有人真正比较过这两种评估指标的结果。
kitti - Pykitti - 将 Velodyne 转换为相机
我正在尝试找出将 Velodyne 转换为相机转换的 API,但看起来 API 没有公开它。有谁知道如何得到这个?
API 仅将 velodyne 暴露给 imu,并将 imu 暴露给相机转换。我尝试编写一个变换,但它似乎没有对齐。
computer-vision - 视觉里程计,Kitti 数据集
我目前正在尝试使用带有KITTI 数据集的 Matlab 制作立体视觉里程计
我知道文件夹“ poses.txt ”包含前 11 个序列的基本真实姿势(轨迹)。每个文件 xx.txt 包含一个 N x 12 表,其中 N 是该序列的帧数。但是,这 12 个参数是什么?x,y,z,行,俯仰,偏航和什么?
我的第二个问题是,如果我想创建自己的数据集,如何使用 IMU 获取这些姿势?
tensorflow - TensorFlow Kitti 训练模型:详细的底层训练过程
对于我的 ML 项目,我想使用来自 tensorflow 模型动物园的 faster_rcnn_resnet101_kitti 模型。由于对于深度学习实践而言,Kitti 数据集中的图像数量非常少(大约 7000 张图像),我想知道这么少的数据如何导致良好的推理性能(mAP@0.5=87)?我可以想象的一个答案是,该网络首先是在一个不同的、丰富的数据集上训练的,并在 Kitti 上进行了微调,但我不确定。我想知道如何找到 TF model zoo 上发布的模型的确切基础训练过程(除了 pipeline.config)?
谢谢
point-cloud-library - 带标签的 CAR 点云 KITTI
我正在尝试使用PCL中的本教程识别点云中的对象。我正在使用 Kitti 数据集。对于本教程,我需要对要识别的对象进行点云扫描。因此,就我而言,kitti 扫描包含城市环境中的汽车、公共汽车、电车、骑自行车者等的 3D 点云,我需要对汽车进行点云扫描,以便与它进行比较并在环境扫描中检测汽车。无论如何从点云场景中提取一个特定对象的扫描?我调查了它,但在我的情况下找不到任何有用的东西。我查看了具有裁剪功能的 open3d,但我没有所需的cropped.json 文件。或者,如果有人已经做过这样的事情并且您有指导或保存的裁剪车辆数据,我将非常感激。
object-detection - 如何标记我自己的点云数据以获得 3D 训练标签 (.txt) 文件,例如 KITTI 3D 对象检测数据集?
我是这个领域的新手,我已经使用激光雷达传感器和相机收集了一些点云数据,现在我有点云的 .pcd 文件和图像的 .png 文件。我想让这些数据类似于用于 3D 对象检测的 KITTI 数据集结构,以便在使用 kitti 数据集作为 3D 对象检测的训练数据的模型中使用它。因此,我想将我的 .pcd 文件更改为 kitti 中的 .bin 文件,并且我需要为标签提供 .txt 文件,所以我需要以这样一种方式注释我的数据,以便给我与 kitti 中相同的标签文件数据集。有人可以帮助我吗?我搜索了很多,所有的标签工具都没有输出与 KITTI 的 .txt 文件中相同的属性。这是 KITTI 3D 数据集的链接。 http://www.cvlibs.net/datasets/kitti/eval_object.php?obj_benchmark=3d