我正在使用带有 ImageNet 权重的 VGG16 预训练模型对 4 个带有 keras 的类进行迁移学习。但是我不知道这四个类之间是否真的有区别。我想知道这些类之间是否存在差异。目标是发现这些类是否有意义,或者这些图像类之间是否没有区别。
我的第一个问题是,如何提高模型的准确性?我尝试了不同的基础模型(VGG、ResNet)、不同的顶层架构、dropout、L2 正则化、加权类(因为类有点不平衡)、优化器和优化器的价值、有意义的数据增强、冻结在不同的水平,但模型充其量是过度拟合。以下是我可以使用不同超参数的 2 个学习和损失曲线示例。
这里没有过度拟合,但模型根本没有改进。然而,损失曲线似乎不错。这可能是由于我为此添加的 L2 正则化。
如果 4 类分类任务的验证集准确率约为 30%(假设数据是平衡的或加权的),那么使用其他超参数是否有可能或极不可能将其提高到明显更好的水平?
在纠正过拟合时,训练准确度下降或验证准确度提高的可能性更大,还是两者兼而有之?
我还能尝试什么以获得更好的准确性?
我何时以及如何得出结论认为这些课程没有意义?