0

我想使用 Keras Tuner 对我的迁移学习模型执行超参数优化。我不知道该怎么做,因为我有两个训练阶段,

  1. 冻结整个网络,只训练最后一层以收敛到新的类和
  2. 解冻并训练网络。

本文本文中,提出了一种在使用迁移学习时进行超参数优化的方法,称为共享超参数优化。他们指出,在两个阶段之间共享一组超参数会导致最好的结果。但是,我不明白“一组超参数”的具体含义以及是否可以使用 Keras Tuner(他们使用 GPyOpt)来实现这一点。

任何有助于理解这个概念或任何其他关于如何为迁移学习模型执行超参数优化的想法/经验都将不胜感激!

4

0 回答 0