1

我正在尝试使用注意创建一个与下图相同的热图TensorFlow r1.4

注意热图

我正在使用tf.contrib.seq2seq.BahdanauAttentiontf.contrib.seq2seq.AttentionWrapper来实现注意力机制。我在这里看到了一种解决方法(在 Tensorflow 中可视化注意力激活),但我认为它不适用于我当前的设置,因为该解决方法使用的是旧版本的TensorFlow.

编辑

通过使用tfdbg调试模型,我可能接近找到解决方案,但我不知道应该寻找什么张量。

任何帮助将不胜感激。

4

0 回答 0