0

如果我使用经过训练的 RNN(或 LSTM)来生成系列数据(用生成的 RNN 命名网络),那么我使用系列数据从头开始训练 RNN(即与生成的 RNN 相同的结构),是吗可以使用生成的 RNN 获得相同的训练网络(相同的训练权重)吗?

4

1 回答 1

0

您以 X 作为输入和 Y 作为输出的系列来训练模型,然后使用该模型生成系列 O。

现在您想从 O=sigmoid(XWL1+b)...*WLN+bn 重新创建 Ws,其中 O 作为输入,X 作为输出。

可能吗?

除非 X=O,否则很可能不会。我无法给出正式的数学证明,但通过网络向前乘法不等于向后乘法,主要是由于激活函数。如果您删除了激活函数或取激活函数的逆函数,则您更有可能接近您想要的 Ws,尽管另一组权重也可能为给定输入提供相同的输出。

此外,这个问题在 stats.stackexchange 中比在 stackoverflow 中更受欢迎。

于 2019-01-24T18:33:18.790 回答