我会尽量清楚地解释我的问题。
所以,我正在尝试使用 GRU 学习评论的产品信息。我有大约一百万条评论,所有评论都转换为 300 维向量。这些评论向量按其各自的产品分组。现在,我有一个包含所有数百万评论的训练集,其中属于同一产品的评论将一个接一个。
下面是我的 GRU 模型
X_train = numpy.reshape(X_train, (X_train.shape[0], 1, X_train.shape[1]))
Y_train = np_utils.to_categorical(encoded_Y_train,nb_classes=3)
Y_train = numpy.reshape(Y_train, (Y_train.shape[0], 1, Y_train.shape[1]))
model = Sequential()
model.add(GRU(input_dim=doc_vec_dim,output_dim=product_embedding_dim,name='GRU',dropout_W=input_dropout,return_sequences=True))
model.add(TimeDistributed(Dense(input_dim=product_embedding_dim,output_dim=3)))
model.add(Activation('softmax'))
model.compile(loss='categorical_crossentropy', optimizer='adagrad', class_mode="categorical",metrics=['accuracy'])
model.fit(X_train, Y_train, batch_size=batch_size, nb_epoch=15, validation_split=test_sample,shuffle=False,callbacks=[LoggingCallback(logger)])
该 GRU 有望捕获产品信息,例如最有可能获得正面评价的特定产品,反之亦然。但是在使用以下代码检索所有唯一产品的 128 维输出向量后:
gru_layer_model = Model(input=gru_model.input,
output=gru_model.get_layer('GRU').output)
layer_output = gru_layer_model.predict(X_predict)
其中 X_predict 是唯一产品的 300 维向量,当我将其连接到其原始向量并使用 SVM 进行分类时,我没有得到任何准确性提高。
在这里,时间步长是 1。这是问题所在吗?如果是这样,如何解决这个问题