我有一个包含 6000 条记录的数据。我有一个 60-20-20 的训练、验证和测试集。我使用 XGboost 获得了大约 76% 的准确度。我将数据转换为时间序列并应用 LSTM/1-D Convnets,准确率约为 60%。我的数据集对于深度学习来说太小了吗?
其次,可以在每个训练集、测试集和验证集上应用 SMOTE(拆分数据后)我知道在将数据拆分为训练/测试/验证之前不应该应用 SMOTE。拆分后可以对集合进行上采样、训练/测试/验证吗?
如果在拆分它们之后对训练/测试/验证集进行上采样,我会在 LSTM 左右(80%)获得更好的结果但是这种方法,对吗?我只是想表明,通过更多的数据,我们可以提高深度学习算法的准确性。