1

这个问题与卷积神经网络(尤其是YoloV3)有关

由于一个 epoch 是所有训练示例的一次前向传递和一次反向传递,因此对于模型正确收敛,它是否相同(在精度和收敛时间方面):

  • m 个时期内使用n*k 个图像进行训练?
  • m*k 时期训练n 幅图像
4

2 回答 2

0

不,它们不一样。

*您向网络展示的示例数量定义了它要寻找的内容 - 具有更多示例的网络往往更通用。例如,如果有 1000 张不同狗的图片,而你只显示 300/300000 张图片,则网络(平均)只能识别一种特定的狗,无法挑选出所有狗的共同特征.

*一个epoch基本上是在一小步内修改网络,这里的关键词是小——采取太大的步骤可能会超出我们对网络参数的目标值。由于我们正在采取小步骤,因此我们必须采取其中的几个步骤才能到达我们想要的地方。

于 2018-07-20T08:20:34.643 回答
0

您通常会在 m 个时期使用 n*k 图像获得更好的模型,否则您很容易过度拟合

也有很多论文研究这个领域(为什么更多的数据似乎总是更好),例如这个

我建议对所有可用数据(减去测试和验证集)进行训练,只要模型尚未收敛或测试指标没有一致的下降趋势(在这种情况下,您可能过度拟合训练数据)。

于 2018-07-20T08:07:52.593 回答