5

我正在计算我最近准备的数据集上现成算法的精度和召回率。

这是一个二元分类问题,我希望为我构建的每个分类器计算精度、召回率和 f 分数。

test_x, test_y, predics, pred_prob,score = CH.buildBinClassifier(data,allAttribs,0.3,50,'logistic')

构建分类器方法基本上构建一个分类器,拟合一个训练数据并返回 test_x(测试数据的特征)、test_y(地面实况标签)、predict(分类器做出的预测)、red_prob(LogisiticRegression.predict_proba方法的预测概率) .

下面是计算precision-recall的代码:

from sklearn.metrics import precision_recall_curve

pr, re, _ = precision_recall_curve(test_y,pred_prob,pos_label=1)
pr
(array([ 0.49852507,  0.49704142,  0.49554896,  0.49702381,  0.49850746,
         0.5       ,  0.5015015 ,  0.50301205,  0.50453172,  0.50606061,
         . . . . . . . 
         0.875     ,  1.        ,  1.        ,  1.        ,  1.        ,
         1.        ,  1.        ,  1.        ,  1.        ])
re
array([ 1.        ,  0.99408284,  0.98816568,  0.98816568,  0.98816568,
         0.98816568,  0.98816568,  0.98816568,  0.98816568,  0.98816568,
         . . . . . . . 
         0.04142012,  0.04142012,  0.03550296,  0.0295858 ,  0.02366864,
         0.01775148,  0.01183432,  0.00591716,  0.        ]))

我不明白为什么是精度和召回数组?它们不应该只是单个数字吗?

由于精度是按照定义计算的,tpf/(tpf+fpf)并且召回率与定义类似?

我知道通过以下代码计算平均精度召回,但不知何故看到数组而不是 tpf、fpf、精度和召回让我想知道发生了什么。

from sklearn.metrics import precision_recall_fscore_support as prf

precision,recall,fscore,_ = prf(test_y,predics,pos_label=1,average='binary')

编辑:但如果没有averageandpos_label参数,它会报告每个类的精度。有人可以解释这两种方法的输出之间的区别吗?

4

2 回答 2

2

来自precision_recall_curve 的sklearn 文档:

计算不同概率阈值的精确召回对。

像逻辑回归这样的分类器模型实际上并不输出类标签(如“0”或“1”),它们输出概率(如 0.67)。这些概率告诉您输入样本属于特定类别的可能性,例如正(“1”)类别。但是您仍然需要选择一个概率阈值,以便算法可以将概率(0.67)转换为类别(“1”)。

如果您选择 0.5 的阈值,则所有计算概率大于 0.5 的输入样本将被分配到正类。如果你选择不同的阈值,你会得到不同数量的样本分配给正类和负类,因此不同的精度和召回分数。

于 2017-04-25T04:54:01.860 回答
1

在二元分类问题中,pred_prob 是实例在每个类中的概率,所以实际上预测值(类)取决于这个概率和一个称为阈值的值。pred_prob 大于阈值的所有实例都归为一类,而较小的归为另一类。默认阈值为 0.5。

所以,改变阈值我们有不同的预测结果。在许多问题中,通过调整阈值可以获得更好的结果。这就是为您提供precision_recall_curve 的原因。

于 2016-09-05T05:06:36.160 回答