0

似乎在解码期间未调用用于在序列到序列代码的示例 TensorFlow 代码中的 seq2seq_model.py 代码中计算注意力掩码的 attention() 方法。

有谁知道如何解决这个问题?这里提出了一个类似的问题:Visualizing attention activation in Tensorflow,但我不清楚如何在解码过程中获取矩阵。

谢谢!

4

1 回答 1

0

为什么需要面具?如果只是为了可视化,我猜你可能需要传递张量并在会话运行中获取它。

于 2016-12-20T11:15:09.670 回答