0

我目前正在做语义分割,但是我的数据集非常小,

我只有大约 700 张带有数据增强功能的图像,例如,翻转可以

使其成为2100张图像。

不确定这是否足以完成我的任务(四个语义分割

类)。

我想使用批量归一化和小批量梯度下降

真正让我摸不着头脑的是,如果批量太小,

批量归一化效果不佳,但批量较大,

它似乎相当于全批次梯度下降

我想知道#of 样本和批量大小之间是否存在标准比率?

4

1 回答 1

1

让我首先解决您问题的第二部分“具有小数据集的神经网络的策略”。您可能希望在较大的数据集上采用预训练网络,并使用较小的数据集微调该网络。例如,请参阅本教程

其次,您询问批次的大小。实际上,较小的批次将使算法像经典随机梯度下降一样在最优值附近徘徊,其标志是损失的噪声波动。而对于较大的批量大小,通常会有一个更“平滑”的走向最优的轨迹。无论如何,我建议您使用具有动量的算法,例如Adam。这将有助于你的训练收敛。

启发式地,批量大小可以保持与 GPU 内存可以容纳的一样大。如果 GPU 内存量不足,则减少批量大小。

于 2019-03-21T17:14:24.520 回答