这些是关于如何计算和减少机器学习中的过度拟合的问题。我认为许多机器学习新手都会有同样的问题,所以我试着用我的例子和问题说清楚,希望这里的答案可以帮助其他人。
我有一个非常小的文本样本,我正在尝试预测与它们相关的值。我已经使用 sklearn 来计算 tf-idf,并将它们插入到回归模型中进行预测。这给了我 26 个具有 6323 个特征的样本 - 不是很多。我知道:
>> count_vectorizer = CountVectorizer(min_n=1, max_n=1)
>> term_freq = count_vectorizer.fit_transform(texts)
>> transformer = TfidfTransformer()
>> X = transformer.fit_transform(term_freq)
>> print X.shape
(26, 6323)
将 6323 个特征 (X) 和相关分数 (y) 的这 26 个样本插入到LinearRegression
模型中,可以得到很好的预测。这些是使用留一法交叉验证获得的,来自cross_validation.LeaveOneOut(X.shape[0], indices=True)
:
using ngrams (n=1):
human machine points-off %error
8.67 8.27 0.40 1.98
8.00 7.33 0.67 3.34
... ... ... ...
5.00 6.61 1.61 8.06
9.00 7.50 1.50 7.50
mean: 7.59 7.64 1.29 6.47
std : 1.94 0.56 1.38 6.91
非常好!使用 ngrams (n=300) 而不是 unigrams (n=1) 会出现类似的结果,这显然是不对的。任何文本中都没有出现 300 个单词,因此预测应该失败,但它不会:
using ngrams (n=300):
human machine points-off %error
8.67 7.55 1.12 5.60
8.00 7.57 0.43 2.13
... ... ... ...
mean: 7.59 7.59 1.52 7.59
std : 1.94 0.08 1.32 6.61
问题 1:这可能意味着预测模型过度拟合数据。我只知道这一点,因为我为我知道不能产生好的结果的 ngrams (n=300) 选择了一个极值。但如果我没有这方面的知识,你通常如何判断模型过度拟合?换句话说,如果使用了合理的度量(n=1),你怎么知道好的预测是过度拟合的结果,而模型只是运行良好?
问题 2:防止过度拟合(在这种情况下)以确保预测结果好坏的最佳方法是什么?
问题3:如果LeaveOneOut
使用交叉验证,模型怎么可能过拟合得到好的结果?过度拟合意味着预测准确性会受到影响 - 那么为什么它不会影响对被遗漏文本的预测呢?我能想到的唯一原因:在主要为 0 的 tf-idf 稀疏矩阵中,文本之间有很强的重叠,因为有很多术语是 0 - 然后回归认为文本高度相关。
请回答任何问题,即使您不知道所有问题。谢谢!