0

我正在学习不同的分类技术,如概率分类器等,并遇到了一个问题,为什么我们不能将二元分类器实现为所有属性的回归函数并根据函数的输出进行分类,比如如果输出小于某个值,它属于 A 类,否则属于 B 类。与概率方法相比,这种方法有什么限制吗?

4

3 回答 3

1

您可以这样做,并且在实践中经常这样做,例如在Logistic Regression中。它甚至不限于二进制类。与概率方法相比,没有固有的限制,但您应该记住,两者是根本不同的方法并且难以比较。

于 2013-08-27T13:11:48.837 回答
0

我认为你对分类有一些误解。无论您使用哪种分类器(svm,或逻辑回归),您始终可以将输出模型视为 f(x)>b ===> positive f(x)negative

这适用于概率模型和非概率模型。实际上,这与风险最小化有关,自然会导致截止分支。

于 2013-08-28T20:57:51.940 回答
0

是的,这是可能的。例如,感知器就是这样做的。

但是,它的使用仅限于线性可分问题。但它们中的多个可以组合起来解决一般神经网络中的任意复杂问题。

另一种机器学习技术SVM以类似的方式工作。它首先将输入数据转换为一些高维空间,然后通过线性函数将其分离。

于 2013-08-30T16:57:36.277 回答