我正在使用 Tensorflow 构建一个用于机器翻译的玩具编码器-解码器模型。
我使用 Tensorflow 1.8.0 cpu 版本。嵌入层使用了 300 维的 FastText 预训练词向量。然后这批训练数据通过具有注意力机制的编码器和解码器。在训练阶段解码器使用 TrainHelper,在推理阶段使用 GreedyEmbeddingHelper。
我已经使用双向 LSTM 编码器成功运行了模型。但是,当我尝试通过使用多层 LSTM 进一步改进我的模型时,就会出现错误。构建训练阶段模型的代码如下:
def BuildTrainModel(train_iterator):
((source, source_lengths), (target, target_lengths)) = train_iterator.get_next()
encoder_inputs = tf.transpose(source, [1,0]) # to time major
decoder_inputs = tf.transpose(target, [1,0])
decoder_outputs = tf.pad(decoder_inputs[1:], tf.constant([[0,1],[0,0]]), constant_values=tar_eos_id)
embedding_encoder = tf.Variable(embedding_matrix_src, name='embedding_encoder')
embedding_decoder = tf.Variable(embedding_matrix_tar, name='embedding_decoder')
# Embedding layer
encoder_emb_inp = tf.nn.embedding_lookup(embedding_encoder, encoder_inputs)
decoder_emb_inp = tf.nn.embedding_lookup(embedding_decoder, decoder_inputs)
# Encoder
# Construct forward and backward cells
forward_cell = tf.nn.rnn_cell.BasicLSTMCell(num_units)
backward_cell = tf.nn.rnn_cell.BasicLSTMCell(num_units)
encoder_outputs, encoder_states_fw, encoder_states_bw = tf.contrib.rnn.stack_bidirectional_dynamic_rnn(
[forward_cell] * num_layers, [backward_cell] * num_layers, encoder_emb_inp, dtype=tf.float64,
sequence_length=source_lengths, time_major=True)
这里我只展示编码器部分。完整代码和超参数请看我的github:https ://github.com/nkjsy/Neural-Machine-Translation/blob/master/nmt3.ipynb
错误信息是:
InvalidArgumentError: Dimensions must be equal, but are 96 and 332 for 'stack_bidirectional_rnn/cell_0/bidirectional_rnn/fw/fw/while/basic_lstm_cell/MatMul_1' (op: 'MatMul') with input shapes: [?,96], [332,128].
我尝试将输入设置为 [forward_cell] 和 [backward_cell] 并没有问题,这意味着我之前所做的只有 1 层。一旦我添加更多层,就会出现问题。