13

我不断从以下代码中收到 input_shape 错误。

from keras.models import Sequential
from keras.layers.core import Dense, Activation, Dropout
from keras.layers.recurrent import LSTM

def _load_data(data):
    """
    data should be pd.DataFrame()
    """
    n_prev = 10
    docX, docY = [], []
    for i in range(len(data)-n_prev):
        docX.append(data.iloc[i:i+n_prev].as_matrix())
        docY.append(data.iloc[i+n_prev].as_matrix())
    if not docX:
        pass
    else:
        alsX = np.array(docX)
        alsY = np.array(docY)
        return alsX, alsY

X, y = _load_data(dframe)
poi = int(len(X) * .8)
X_train = X[:poi]
X_test = X[poi:]
y_train = y[:poi]
y_test = y[poi:]

input_dim = 3

以上一切运行顺利。这就是它出错的地方。

in_out_neurons = 2
hidden_neurons = 300
model = Sequential()
#model.add(Masking(mask_value=0, input_shape=(input_dim,)))
model.add(LSTM(in_out_neurons, hidden_neurons, return_sequences=False, input_shape=(len(full_data),)))
model.add(Dense(hidden_neurons, in_out_neurons))
model.add(Activation("linear"))
model.compile(loss="mean_squared_error", optimizer="rmsprop")
model.fit(X_train, y_train, nb_epoch=10, validation_split=0.05)

它返回此错误。

Exception: Invalid input shape - Layer expects input ndim=3, was provided with input shape (None, 10320)

当我查看网站时,它说要指定一个元组“(例如(100,),用于 100 维输入)”。

话虽如此,我的数据集由一列长度为 10320 的列组成。我认为这意味着我应该(10320,)作为 input_shape 输入,但无论如何我都会收到错误消息。有没有人有办法解决吗?

4

4 回答 4

4

我的理解是您的输入和输出都是一维向量。诀窍是根据 Keras 的要求重塑它们:

from keras.models import Sequential
from keras.layers.core import Dense, Activation, Dropout
from keras.layers.recurrent import LSTM
import numpy as np

X= np.random.rand(1000)
y = 2*X

poi = int(len(X) * .8)
X_train = X[:poi]
y_train = y[:poi]

X_test = X[poi:]
y_test = y[poi:]

# you have to change your input shape (nb_samples, timesteps, input_dim)
X_train = X_train.reshape(len(X_train), 1, 1)
# and also the output shape (note that the output *shape* is 2 dimensional)
y_train = y_train.reshape(len(y_train), 1)


#in_out_neurons = 2 
in_out_neurons = 1

hidden_neurons = 300
model = Sequential()
#model.add(Masking(mask_value=0, input_shape=(input_dim,)))
model.add(LSTM(hidden_neurons, return_sequences=False, batch_input_shape=X_train.shape))
# only specify the output dimension
model.add(Dense(in_out_neurons))
model.add(Activation("linear"))
model.compile(loss="mean_squared_error", optimizer="rmsprop")
model.fit(X_train, y_train, nb_epoch=10, validation_split=0.05)

# calculate test set MSE
preds = model.predict(X_test).reshape(len(y_test))
MSE = np.mean((preds-y_test)**2)

以下是关键点:

  • 添加第一层时,您需要指定隐藏节点的数量和输入形状。后续层不需要输入形状,因为它们可以从前一层的隐藏节点推断出来
  • 同样,对于您的输出层,您只需指定输出节点的数量

希望这可以帮助。

于 2016-06-28T19:09:10.420 回答
2

以下是Keras 2.0.0的工作版本,修改了基数的代码

from keras.models import Sequential
from keras.layers.core import Dense, Activation, Dropout
from keras.layers.recurrent import LSTM
import numpy as np

X= np.random.rand(1000)
y = 2 * X

poi = int(len(X) * .8)
X_train = X[:poi]
y_train = y[:poi]

X_test = X[poi:]
y_test = y[poi:]

# you have to change your input shape (nb_samples, timesteps, input_dim)
X_train = X_train.reshape(len(X_train), 1, 1)
# and also the output shape (note that the output *shape* is 2 dimensional)
y_train = y_train.reshape(len(y_train), 1)

# Change test data's dimension also.
X_test = X_test.reshape(len(X_test),1,1)
y_test = y_test.reshape(len(y_test),1)


#in_out_neurons = 2
in_out_neurons = 1

hidden_neurons = 300
model = Sequential()
# model.add(Masking(mask_value=0, input_shape=(input_dim,)))
# Remove batch_input_shape and add input_shape = (1,1) - Imp change for Keras 2.0.0
model.add(LSTM(hidden_neurons, return_sequences=False, input_shape=(X_train.shape[1],X_train.shape[2])))
# only specify the output dimension
model.add(Dense(in_out_neurons))
model.add(Activation("linear"))
model.compile(loss="mean_squared_error", optimizer="rmsprop")
model.summary()
model.fit(X_train, y_train, epochs=10, validation_split=0.05)

# calculate test set MSE
preds = model.predict(X_test).reshape(len(y_test))
print(preds)
MSE = np.mean((preds-y_test)**2)
print('MSE ', MSE)
于 2017-04-16T07:15:25.710 回答
2

更多信息:当使用具有可变长度序列的 RNN(如 LSTM)时,您必须采用数据格式。

当您对序列进行分组以将其传递给 fit 方法时,keras 将尝试构建样本矩阵,这意味着所有输入序列必须具有相同的大小,否则您将没有正确维度的矩阵。

有几种可能的解决方案:

  1. 使用样本一一训练您的网络(例如使用 fit_generator)
  2. 填充所有序列,使它们具有相同的大小
  3. 按大小对序列进行分组(最终填充它们)并逐组训练您的网络(再次使用基于生成器的拟合)

第三种解决方案对应于最常见的可变大小策略。如果您填充序列(第二个或第三个解决方案),您可能需要添加一个遮罩层作为输入。

如果您不确定,请尝试打印数据的形状(使用 numpy 数组的 shape 属性。)

您可能需要查看:https ://keras.io/preprocessing/sequence/ (pad_sequences) 和https://keras.io/layers/core/#masking

于 2017-03-29T09:33:27.560 回答
0

尝试使用 LSTM 层而不指定输入形状。让 Keras 为您完成工作。我认为您也评论了掩蔽,因为您遇到了类似的问题。我之前遇到过它,结果是 input_shape = (time_steps, input_dim)。我认为这是由于 Keras 中新的自动形状推断而发生的。

于 2016-03-28T23:48:33.313 回答