1

我正在使用 detectron2 来解决分割任务,我正在尝试将对象分类为 4 个类,因此我使用了COCO-InstanceSegmentation/mask_rcnn_R_50_FPN_3x.yaml。我应用了 4 种增强变换,训练后我得到大约 0.1 的总损失。

但是由于某些原因,bbox 在测试集上的某些图像上的准确率不是很高,bbox 要么被绘制得更大要么更小,或者没有覆盖整个对象

此外,有时预测器绘制的 bbox 很少,它假设尽管只有一个对象,但几乎没有不同的对象。

有什么建议可以提高它的准确性吗?

有没有什么好的实践方法来解决这个问题?

任何建议或参考资料都会有所帮助。

4

1 回答 1

0

我建议如下:

  1. 确保您的训练集具有您想要检测的所有尺寸的对象:通过这种方式,网络了解到对象的大小可以不同并且不太容易过度拟合(例如,检测器可以假设您的对象应该只是很大) .
  2. 添加数据。与其应用所有类型的增强,不如尝试添加更多数据。尽管只有一个对象但检测到不同对象的现象使我相信您的网络不能很好地泛化。就我个人而言,我会选择每节课至少 500 个注释。

通过(2)将实现最大的改进步骤。

一旦你有了一个不错的基线,你也可以尝试增强。

于 2020-10-10T08:45:21.440 回答