在 theano 的关于RNN的教程中,最后一部分提到了
我们通过在每次更新后对其进行归一化来将词嵌入保留在单位球上:
self.normalize = theano.function(inputs=[],
updates={self.emb:
self.emb /
T.sqrt((self.emb**2)
.sum(axis=1))
.dimshuffle(0, 'x')})
.sum(axis=1))
.dimshuffle(0, 'x')})
我在网上搜索,只找到了论文Investigation of Recurrent-Neural-Network Architectures and Learning Methods for Spoken Language Understanding提到它是fine-tuning word embedding 在第3.5.1 章。
我不明白为什么我们可以微调词嵌入。 self.emb
是这个RNN模型的输入,对吧?我们如何改变输入值?