0

我很抱歉,但这个问题可能被极度低估(由于共享限制)。

我正在使用一个包含大约 2500 个图像和大约 3200 个注释的小型专有对象检测数据集。

我使用 Alex 的 Darknet 框架训练了一个 YOLOv4 模型,使用默认参数(更改了输入大小等要求),我看到了非常好的性能。一个高度自信的网络,可以很好地概括。我使用了yolov4.conv.137检查点并按照此处提到的步骤进行操作

在本教程以及Eager Mode Few Shot Detection教程中,我尝试使用 Tensorflow 2 的对象检测 API 执行相同的任务,并且主要使用默认训练参数。我从模型动物园尝试了不同版本的 MobilNet SSD 和 RetinaNet SSD 检查点。

我主要是为了测试这些模型与 Google 的 EdgeTPU 的兼容性。

我看到的主要问题是 TF2 对象检测 API 模型在将它们转换为 TFlite 后的可怕泛化能力。诸如嘈杂的盒子和仅看到奇异类预测之类的问题。就好像他们只接受了 1 或 2 张图像的训练。

  1. YOLOv4 框架可能会出现这种性能差异,是否有任何具体原因?
  2. 关于在微调这些模型以提高性能时可能会发生什么变化的任何建议?
  3. 你认为我应该关注 EfficientDet 类型的模型,因为它们在基准数据集上表现出更好的性能吗?

非常感谢您的帮助和见解!

4

0 回答 0