我正在尝试使用注意创建一个与下图相同的热图TensorFlow r1.4
。
我正在使用tf.contrib.seq2seq.BahdanauAttention和tf.contrib.seq2seq.AttentionWrapper来实现注意力机制。我在这里看到了一种解决方法(在 Tensorflow 中可视化注意力激活),但我认为它不适用于我当前的设置,因为该解决方法使用的是旧版本的TensorFlow
.
编辑
通过使用tfdbg调试模型,我可能接近找到解决方案,但我不知道应该寻找什么张量。
任何帮助将不胜感激。