4

我想使用带有 keras 的 LSTM 神经网络来预测时间序列组,但在使模型与我想要的匹配时遇到了麻烦。我的数据维度是:

输入张量:(data length, number of series to train, time steps to look back)

输出张量:(data length, number of series to forecast, time steps to look ahead)

注意:我想保持尺寸完全一样,没有转置。

重现问题的虚拟数据代码是:

import numpy as np
from keras.models import Sequential
from keras.layers import Dense, TimeDistributed, LSTM

epoch_number = 100
batch_size = 20
input_dim = 4
output_dim = 3
look_back = 24
look_ahead = 24
n = 100

trainX = np.random.rand(n, input_dim, look_back)
trainY = np.random.rand(n, output_dim, look_ahead)
print('test X:', trainX.shape)
print('test Y:', trainY.shape)

model = Sequential()

# Add the first LSTM layer (The intermediate layers need to pass the sequences to the next layer)
model.add(LSTM(10, batch_input_shape=(None, input_dim, look_back), return_sequences=True))

# add the first LSTM layer (the dimensions are only needed in the first layer)
model.add(LSTM(10, return_sequences=True))

# the TimeDistributed object allows a 3D output
model.add(TimeDistributed(Dense(look_ahead)))

model.compile(loss='mean_squared_error', optimizer='adam', metrics=['accuracy'])
model.fit(trainX, trainY, nb_epoch=epoch_number, batch_size=batch_size, verbose=1)

这导致:

异常:检查模型目标时出错:预期 timedistributed_1 的形状为 (None, 4, 24) 但得到的数组的形状为 (100, 3, 24)

问题似乎出在定义TimeDistributed 图层时。

如何定义TimeDistributed层以便编译和训练?

4

2 回答 2

0

在您的情况下,错误消息有点误导。调用网络的输出节点,timedistributed_1因为这是顺序模型中的最后一个节点。错误消息试图告诉您的是,此节点的输出与您的模型适合的目标(即您的标签)不匹配trainY

trainY的形状为(n, output_dim, look_ahead)(100, 3, 24)但网络产生的输出形状为(batch_size, input_dim, look_ahead)。这种情况下的问题是output_dim!= input_dim。如果您的时间维度发生变化,您可能需要填充或删除所述时间步长的网络节点。

于 2016-10-17T18:29:14.583 回答
0

我认为问题在于您期望output_dim(!= input_dim) 的输出TimeDistributed,而这是不可能的。这个维度就是它所认为的时间维度:它被保留了。

输入至少应为 3D,索引1的维度将被视为时间维度。

的目的是对每个时间步TimeDistributed应用相同的层。您最终只能获得与开始时相同数量的时间步长。

如果你真的需要将这个维度从 4 降低到 3,我认为你需要在最后添加另一个层,或者使用不同于TimeDistributed.

PS:发现这个问题的一个提示output_dim是在创建模型时从未使用过,它只出现在验证数据中。虽然这只是代码异味(此观察结果可能没有任何问题),但值得检查。

于 2016-10-17T18:45:16.167 回答