0

我正在使用 MatConvNet 中的卷积神经网络进行情感识别。我有一个主要的大数据集(A 有 40.000 张图片)和两个更难、更小的数据集(B、C 有 5.000 张图片)具有相同的类。当我在数据集 A 上使用随机权重初始化运行我的网络时,我得到了 70% 的准确率。

因此,我想通过在同一网络架构上的数据集 B 和 C 上预训练的权重进行初始化来提高性能。在数据集 A 上微调我的网络时,我只从预训练网络中获取三个初始层(conv、relu、pool)。但是,我得到的结果低于随机权重。我还尝试了所有层,六个第一层和一个第一层。

我理解和实施正确吗?我使用来自预训练网络的权重,而不是前三层中的随机权重(实际上只是在第一层 - conv)。现在我不确定我是否很好地理解了这个概念。

我使用以下代码进行微调:

net = load('net-epoch-100.mat');
trainOpts.learningRate = [0.004*ones(1,25), 0.002*ones(1,25), 
0.001*ones(1,25), 0.0005*ones(1,25)];  %I set much higher training rate
                                       %for pretraining on datasets B and C
net.layers=net.layers(1:end-13);       %only taking first three layers from pretrained net
... the rest of the layers
4

1 回答 1

0

“在数据集 A 上微调我的网络时,我只从预训练网络中获取三个初始层(conv、relu、pool)。”

由于 relu 和 pool 不可训练,因此您基本上只使用了预训练网络中的一层。第一个 conv 层只是进行一些边缘检测,不捕获任何高级视觉概念。迁移学习的最佳实践是使用来自高层的 ImageNet 预训练特征。您可以先在大型数据集上对其进行微调,然后在小型数据集上对其进行微调。

于 2017-05-21T22:37:42.967 回答