我创建了一个带有预训练 100D 手套嵌入的编码器-解码器模型,以创建一个抽象的文本摘要器。数据集有4300
文章,它的摘要数据。词汇量48549
用于文章和19130
摘要。Total memory size of input, output variables = 7.5Gb
以下是基本的编码器-解码器模型:
latent_dim = 1024
encoder_inputs = Input(shape=(max_x_len,))
emb1 = Embedding(len(x_voc), 100, weights=[x_voc], trainable = False)(encoder_inputs)
encoder = LSTM(latent_dim, return_state=True)
encoder_outputs, state_h, state_c = encoder(emb1)
decoder_inputs = Input(shape=(None,))
emb2 = Embedding(len(y_voc), 100, weights=[y_voc], trainable = False)(decoder_inputs)
decoder_lstm = LSTM(latent_dim, return_sequences=True, return_state=True)
decoder_outputs0, _, _ = decoder_lstm(emb2, initial_state=[state_h, state_c])
decoder_dense = Dense(len(y_voc), activation='softmax')
decoder_outputs = decoder_dense(decoder_outputs0)
model = Model([encoder_inputs, decoder_inputs], decoder_outputs)
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
当我对整个数据进行训练时,spyder 会消耗 99% 的内存并且系统会停止。
我的系统配置如下:
OS - windows 10 (64-bit)
Ram - 8Gb
Processor - Intel(R) Core(TM) i5-3470
ROM - 300Gb
此外,我想 -
- 向模型添加更多数据和层
- 添加注意力层
- 实现伯特
请提出解决方案或合适的系统配置。