我正在尝试在不使用 MultiRNNCell 的情况下制作多层 RNN,因为我想独立更新每一层。所以我没有使用 tf.dynamic_rnn。
with tf.variable_scope("cell"):
with tf.variable_scope("cell_1", reuse=True):
cell_1 = tf.contrib.rnn.BasicLSTMCell(n_hidden)
states_1 = cell_1.zero_state(batch_size, tf.float32)
with tf.variable_scope("cell_2", reuse=True):
cell_2 = tf.contrib.rnn.BasicLSTMCell(n_hidden)
states_2 = cell_2.zero_state(batch_size, tf.float32)
with tf.variable_scope("cell_3", reuse=True):
cell_3 = tf.contrib.rnn.BasicLSTMCell(n_hidden)
states_3 = cell_3.zero_state(batch_size, tf.float32)
outputs_1=[]
outputs_2=[]
outputs_3=[]
with tf.variable_scope("architecture"):
for i in range(n_step):
output_1, states_1 = cell_1(X[:, i], states_1)
output_2, states_2 = cell_2(output_1, states_2)
output_3, states_3 = cell_3(output_2, states_3)
outputs_3.append(output_3)
然后我得到这样的错误。
ValueError: 变量架构/basic_lstm_cell/kernel 已经存在,不允许。您的意思是在 VarScope 中设置 reuse=True 吗?
因此,在没有 MultiRNNCell 的情况下,似乎不可能在 tensorflow 中声明多个单元格。我该如何解决这个问题?