我研究过深度强化学习,在文献中,学习率通常低于我在其他环境中发现的。
我的模型如下:
def create_model(self):
model = Sequential()
model.add(LSTM(HIDDEN_NODES, input_shape=(STATE_SIZE, STATE_SPACE), return_sequences=False))
model.add(Dense(HIDDEN_NODES, activation='relu', kernel_regularizer=regularizers.l2(0.000001)))
model.add(Dense(HIDDEN_NODES, activation='relu', kernel_regularizer=regularizers.l2(0.000001)))
model.add(Dense(ACTION_SPACE, activation='linear'))
# Compile the model
model.compile(loss=tf.keras.losses.Huber(delta=1.0), optimizer=Adam(lr=LEARNING_RATE, clipnorm=1))
return model
其中初始学习率 (lr) 为 3e-5。对于微调,我冻结了前两层(这一步在我的设置中是必不可少的)并将学习率降低到 3e-9。在微调过程中,一旦样本源受到扰动数据,模型可能会遭受分布偏移。如此低的学习率让我的模型不断改进,除此之外还有其他问题来源吗?