这是使用来自Neurolab Python 库的Elman Recurrent Neural Network的示例:
import neurolab as nl
import numpy as np
# Create train samples
i1 = np.sin(np.arange(0, 20))
i2 = np.sin(np.arange(0, 20)) * 2
t1 = np.ones([1, 20])
t2 = np.ones([1, 20]) * 2
input = np.array([i1, i2, i1, i2]).reshape(20 * 4, 1)
target = np.array([t1, t2, t1, t2]).reshape(20 * 4, 1)
# Create network with 2 layers
net = nl.net.newelm([[-2, 2]], [10, 1], [nl.trans.TanSig(), nl.trans.PureLin()])
# Set initialized functions and init
net.layers[0].initf = nl.init.InitRand([-0.1, 0.1], 'wb')
net.layers[1].initf= nl.init.InitRand([-0.1, 0.1], 'wb')
net.init()
# Train network
error = net.train(input, target, epochs=500, show=100, goal=0.01)
# Simulate network
output = net.sim(input)
# Plot result
import pylab as pl
pl.subplot(211)
pl.plot(error)
pl.xlabel('Epoch number')
pl.ylabel('Train error (default MSE)')
pl.subplot(212)
pl.plot(target.reshape(80))
pl.plot(output.reshape(80))
pl.legend(['train target', 'net output'])
pl.show()
在这个例子中,它合并了 2 个单位长度的输入,也合并了2 个单位长度的输出。之后,它使用这些合并的数组训练网络。
首先,它看起来不像我从这里得到的模式:
我的主要问题是;
我必须用任意长度的 输入和输出来训练网络,如下所示:
- 任意长度输入到固定长度输出
- 固定长度输入到任意长度输出
- 任意长度输入到任意长度输出
此时你会想到:“你的答案是长短期记忆网络。”
我知道,但Neurolab很容易使用,因为它有很好的功能。特别是,它非常Pythonic。所以我坚持使用Neurolab Library来解决我的问题。但是,如果您向我推荐另一个具有更好LSTM功能的库,例如 Neurolab ,我会接受。
最后,我怎样才能为任意长度的输入和输出重新排列这个例子?
我对 RNN 和 LSTM 没有最好的理解,所以请解释一下。