6

我正在使用 sklearn v 0.13.1 svm 来尝试解决二进制分类问题。我使用 kfold 交叉验证并计算 roc 曲线 (roc_auc) 下的面积来测试我的模型的质量。但是,对于某些折叠,roc_auc 小于 0.5,即使对于训练数据也是如此。这不应该是不可能的吗?算法不应该总是有可能在它正在训练的数据上至少达到 0.5 吗?

这是我的代码:

classifier = svm.SVC(kernel='poly', degree=3, probability=True, max_iter=100000)
kf = cross_validation.KFold(len(myData), n_folds=3, indices=False)
for train, test in kf:
    Fit = classifier.fit(myData[train], classVector[train])

    probas_ = Fit.predict_proba(myData[test])
    fpr, tpr, thresholds = roc_curve(classVector[test], probas_[:,1])
    roc_auc = auc(fpr, tpr)

    probas_ = Fit.predict_proba(myData[train])
    fpr2, tpr2, thresholds2 = roc_curve(classVector[train], probas_[:,1])
    roc_auc2 = auc(fpr2, tpr2)

    print "Training auc: ", roc_auc2, " Testing auc: ", roc_auc

输出如下所示:

    Training auc: 0.423920939062  Testing auc: 0.388436883629
    Training auc: 0.525472613736  Testing auc: 0.565581854043
    Training auc: 0.470917930528  Testing auc: 0.259344660194

曲线下面积小于 0.5 的结果是否有意义?原则上,如果训练值和测试值都 <0.5,我可以反转每个点的预测,但我担心会出现问题。我想即使我给它完全随机的数据,算法在训练数据上也应该达到 0.5?

4

1 回答 1

3

事实上,您可以颠倒您的预测,这就是您的 AUROC 小于 0.5 的原因。这样做通常不是问题,只需确保保持一致并且始终或从不反转它们。确保在训练集和测试集上都这样做。

出现此问题的原因可能是classifier.fitroc_curve函数误解了您传递的 classVector。解决这个问题可能更好 - 阅读他们的文档以了解他们确切期望的数据。特别是,您没有指定哪个标签是正面的。查看pos_label参数roc_curve并确保y_true已正确指定。

然而,令人担忧的是,你的一些 AUROC 在训练集上 > 0.5,而且大部分都接近它。这可能意味着您的分类器的性能并不比随机分类器好多少。

于 2014-02-06T07:49:10.720 回答