0

我有一个非常复杂的基于 LSTM 的神经网络模型,我正在对 Quora Duplicate Question 对进行训练。原始数据集中大约有 400 000 个句子对。在整个(或 80%)数据集上进行训练需要大量的处理能力和计算时间。如果我选择数据集的一个随机子集(例如仅 8000 对)用于训练,而选择 2000 对用于测试,那会不会很不明智?会对性能造成严重影响吗?“更多的数据,更好的模型”总是真的吗?

4

1 回答 1

1

根据经验,深度神经网络通常受益于更多数据。

如果您有一个描述良好的模型并正确设计了您的输入,那么如果您选择数据集的较小子集,您将失败。

但是,您始终可以使用指标来评估这一点。从 8000 对开始,检查每个样本大小的损失如何减少。

对于大问题,您始终必须记住,计算时间通常也很大。

于 2019-10-30T14:10:00.630 回答