具体是如何tf.contrib.rnn.AttentionCellWrapper
使用的?有人可以提供一段示例代码吗?具体来说,我只做了以下
fwd_cell = tf.contrib.rnn.AttentionCellWrapper(tf.contrib.rnn.BasicLSTMCell(hidden_size),10,50,state_is_tuple=True)
bwd_cell = tf.contrib.rnn.AttentionCellWrapper(tf.contrib.rnn.BasicLSTMCell(hidden_size),10,50,state_is_tuple=True)
但在 Bahdanau 等人。2015 年,注意力作用于整个双向 RNN。我不知道如何在 Tensorflow 中编写代码。