0

我有几个问题:

  1. 在具有不同输入长度的 seq to seq 模型中,如果您不使用注意掩码,RNN 可能最终会计算填充元素的隐藏状态值?因此,这意味着注意面具是强制性的,否则我的输出会出错?
  2. 那么如何处理不同长度的标签,假设我已经填充了批量传递它。现在我不希望我的填充元素对我的损失产生影响,那么我该如何忽略它呢?
4

1 回答 1

0
  1. 不,不一定。RNN 采用时间序列并每次计算隐藏状态。您可以强制您的 RNN 停止,而不是计算填充元素的隐藏状态值。

您可以为此使用动态 RNN。在这里阅读:什么是 TensorFlow 中的动态 RNN?

于 2019-10-20T07:05:31.513 回答