我熟悉机器学习和朴素贝叶斯,但是在我的特征向量是一袋词的文档分类中,我很难理解如何实现它。
特别是,您如何计算类条件特征似然性Pr(word | class)
?在许多文本中,我看到以下术语:
右手边是如何实现的?是出现c
特征f
的类文档数除以类文档数c
吗?
例如,假设您有 10 个文档,其中 7 个是 C1 类,3 个是 C2 类。其中一些出现了“惊人”这个词:
C1: ...
C1: ... amazing ...
C1: ...
C1: ... amazing ...
C1: ... amazing ...
C1: ...
C1: ...
C2: ...
C2: ... amazing ...
C2: ...
看起来像:
- 计数(惊人的,C1)= 3
- 计数(惊人的,C2)= 1
- 计数(C1)= 7
- 计数(C2)= 3
Pr(amazing|C1) = 3/7 和 Pr(amazing|C2) = 1/3?
编辑 2015 年 5 月 7 日
我在“ Introduction to Information Retrieval ”一书的第 13 章 ( PDF )中遇到了关于用于文本分类的朴素贝叶斯的讨论。类条件特征概率有一个不同的公式:
因此,这里看起来 count(word, class) 是类中文档中单词的出现总数,而不是类中文档的数量。
同样,count(class) 是类中文档中的单词总数,而不是类中文档的数量。
P(feature|class) 的哪个公式是首选?