14

我正在比较两个朴素贝叶斯分类器:一个来自 NLTK,一个来自 scikit-learn。我正在处理一个多类分类问题(3 类:正(1)、负(-1)和中性(0))。

在不执行任何特征选择(即使用所有可用特征)的情况下,使用 70,000 个实例的训练数据集(噪声标记,实例分布为 17% 正、4% 负和 78% 中性),我训练了两个分类器,第一个是 nltk.NaiveBayesClassifier,第二个是 sklearn.naive_bayes.MultinomialNB(带有fit_prior=True)。

训练后,我在 30,000 个实例的测试集上评估了分类器,得到以下结果:

**NLTK's NaiveBayes**
accuracy: 0.568740
class: 1
     precision: 0.331229
     recall: 0.331565
     F-Measure: 0.331355
class: -1
     precision: 0.079253 
     recall: 0.446331 
     F-Measure: 0.134596 
class: 0
     precision: 0.849842 
     recall: 0.628126 
     F-Measure: 0.722347 


**Scikit's MultinomialNB (with fit_prior=True)**
accuracy: 0.834670
class: 1
     precision: 0.400247
     recall: 0.125359
     F-Measure: 0.190917
class: -1
     precision: 0.330836
     recall: 0.012441
     F-Measure: 0.023939
class: 0
     precision: 0.852997
     recall: 0.973406
     F-Measure: 0.909191

**Scikit's MultinomialNB (with fit_prior=False)**
accuracy: 0.834680
class: 1
     precision: 0.400380
     recall: 0.125361
     F-Measure: 0.190934
class: -1
     precision: 0.330836
     recall: 0.012441
     F-Measure: 0.023939
class: 0
     precision: 0.852998
     recall: 0.973418
     F-Measure: 0.909197

我注意到,虽然 Scikit 的分类器具有更好的整体准确度和精确度,但与 NLTK 相比,它的召回率非常低,至少就我的数据而言。考虑到它们可能(几乎)是相同的分类器,这不是很奇怪吗?

4

2 回答 2

3

两个库中类权重的默认行为是否相同?稀有类(-1)的精度差异看起来可能是原因......

于 2012-05-06T03:25:02.443 回答
3

朴素贝叶斯分类器通常意味着对假定独立的二元特征进行贝叶斯分类器。这就是NLTK 的朴素贝叶斯分类器实现的。对应的 scikit 分类器是BernoulliNB分类器。

对布尔值特征的限制实际上并不是必需的,它只是最简单的实现。可以为来自任何参数分布的(假设的)独立特征定义朴素贝叶斯分类器。

MultinomialNB用于具有整数值输入特征的数据,这些特征被假定为多项式分布。

Sckit 还具有GaussianNB,用于假设独立高斯分布的连续值特征。

于 2014-05-12T03:43:57.247 回答