1

我试图用 tensorflow LSTM 解决原始 LSTM 论文中描述的实验 3a:http: //deeplearning.cs.cmu.edu/pdfs/Hochreiter97_lstm.pdf 并且失败了

来自论文:任务是观察然后对输入序列进行分类。有两个类别,每个类别发生的概率为 0.5。只有一根输入线。只有前 N 个实值序列元素传达有关该类的相关信息。位置 t > N 的序列元素由均值为零且方差为 0.2 的高斯生成。

他在论文中描述的网络架构:“我们使用 3 层网络,具有 1 个输入单元、1 个输出单元和 3 个大小为 1 的单元块。输出层仅接收来自存储单元的连接。存储单元和门单元从输入单元、记忆单元和门单元接收输入,并具有偏置权重。门单元和输出单元在 [0; 1] 中为逻辑 sigmoid,在 [-1; 1] 中为 h,在 [-2; 2] 中为 g "

我尝试使用具有 3 个隐藏单元 T=100 和 N=3 的 LSTM 重现它,但失败了。

我使用了原始论文中描述的在线训练(即在每个序列之后更新权重)

我的代码的核心如下:

self.batch_size = batch_size = config.batch_size
hidden_size = 3
self._input_data = tf.placeholder(tf.float32, (1, T))
self._targets = tf.placeholder(tf.float32, [1, 1])
lstm_cell = rnn_cell.BasicLSTMCell(hidden_size , forget_bias=1.0)
cell = rnn_cell.MultiRNNCell([lstm_cell] * 1)
self._initial_state = cell.zero_state(1, tf.float32)
weights_hidden = tf.constant(1.0, shape= [config.num_features, config.n_hidden])

准备输入

inputs = []
for k in range(num_steps):
   nextitem = tf.matmul(tf.reshape(self._input_data[:, k], [1, 1]) , weights_hidden)
   inputs.append(nextitem)

outputs, states = rnn.rnn(cell, inputs, initial_state=self._initial_state)

使用最后一个输出

pred = tf.sigmoid(tf.matmul(outputs[-1], tf.get_variable("weights_out", [config.n_hidden,1])) + tf.get_variable("bias_out", [1]))

self._final_state = states[-1]
self._cost = cost = tf.reduce_mean(tf.square((pred - self.targets)))
self._result = tf.abs(pred[0, 0] - self.targets[0,0])

optimizer = tf.train.GradientDescentOptimizer(learning_rate = config.learning_rate).minimize(cost)

知道为什么它不能学习吗?

我的第一直觉是为每个类创建 2 个输出,但在论文中他特别提到了一个输出单元。

谢谢

4

1 回答 1

0

看来我需要forget_bias > 1.0。对于长序列,网络无法使用默认的忘记偏差,例如 T=50,例如我需要忘记偏差 = 2.1

于 2016-02-09T14:23:26.487 回答