如果也使用拉普拉斯平滑,是否可以获得负信息增益?
我们知道:
IG = H(Y) - H(Y|X)
这里,H 是熵函数,IG 是信息增益。
还:
H(Y) = -Σ y P(Y=y).log 2 (P(Y=y))
H(Y|X) = Σ x P(X=x).H(Y|X=x)
H(Y|X=x) = -Σ y P(Y=y|X=x).log 2 (P(Y=y|X=x))
例如,假设 P(Y=y|X=x) = n y|x /n x。但有可能 n x = 0 和 n y|x = 0。所以,我进行拉普拉斯平滑并定义 P(Y=y|X=x) = (n y|x +1)/(n x +| X|)。这里,|X| 表示 X 可以取的可能值的数量(如果选择 X 作为属性,则可能的拆分数量)。是否有可能由于拉普拉斯平滑,我得到了负面信息增益?