我的问题是这段代码有意义吗?如果这是有道理的,那么目的应该是什么?
model.add(LSTM(18, return_sequences=True,batch_input_shape=(batch_size,look_back,dim_x), stateful=True))
model.add(Dropout(0.3))
model.add(LSTM(50,return_sequences=False,stateful=False))
model.add(Dropout(0.3))
model.add(Dense(1, activation='linear'))
因为如果我的第一个 LSTM 层将我的状态从一个批次返回到下一个批次,为什么我的第二个 LSTM 层不应该这样做呢?
我很难理解 Keras 中的 LSTM 机制,所以我非常感谢任何帮助:)
如果你对这篇文章投反对票,你能在命令中告诉我为什么吗?谢谢。