使用以下代码:
model = Sequential()
num_features = data.shape[2]
num_samples = data.shape[1]
model.add(
LSTM(16, batch_input_shape=(None, num_samples, num_features), return_sequences=True, activation='tanh'))
model.add(PReLU())
model.add(Dropout(0.5))
model.add(LSTM(8, return_sequences=True, activation='tanh'))
model.add(Dropout(0.1))
model.add(PReLU())
model.add(Flatten())
model.add(Dense(1, activation='sigmoid'))
我试图了解如何在第一个 LSTM 层之前添加注意机制。我找到了以下 GitHub:Philippe Rémy 的 keras-attention-mechanism,但无法弄清楚如何将它与我的代码一起使用。
我想可视化注意力机制,看看模型关注的特征是什么。
任何帮助将不胜感激,尤其是代码修改。谢谢 :)