使用 NLTK 中的 Bernoulli Naive Bayes 算法和 scikit-learn 模块中的算法对文本(仅分为两类)进行分类时,我得到了完全不同的结果。尽管两者之间的总体准确度相当(尽管远非相同),但 I 型和 II 型错误的差异是显着的。特别是,NLTK 朴素贝叶斯分类器给出的 I 类错误多于 II 类错误,而 scikit-learn 则相反。这种“异常”似乎在不同的特征和不同的训练样本中是一致的。是否有一个原因 ?两者谁更值得信赖?
问问题
1142 次