6

具体是如何tf.contrib.rnn.AttentionCellWrapper使用的?有人可以提供一段示例代码吗?具体来说,我只做了以下

    fwd_cell = tf.contrib.rnn.AttentionCellWrapper(tf.contrib.rnn.BasicLSTMCell(hidden_size),10,50,state_is_tuple=True)
    bwd_cell = tf.contrib.rnn.AttentionCellWrapper(tf.contrib.rnn.BasicLSTMCell(hidden_size),10,50,state_is_tuple=True)

但在 Bahdanau 等人。2015 年,注意力作用于整个双向 RNN。我不知道如何在 Tensorflow 中编写代码。

4

0 回答 0