1

我正在尝试在 keras 的 seq2seq 中实现注意力层。我正在使用此代码来实现:https ://github.com/datalogue/keras-attention/blob/master/models/custom_recurrents.py ,但似乎它假设编码器和解码器具有相同的时间步,但在我的实现中,我要求它们不同。谁能指导我如何做到这一点。

谢谢

4

0 回答 0