2

我目前正在阅读 Nello Cristianini 所著的《支持向量机和其他基于内核的方法的介绍》一书,我无法理解他在第 2 章以及稍后在第 2 章中讨论的线性学习机器的双重表示概念。在第 3.2 节“隐式映射到特征空间”中的第 3 章,我不知道这种对偶表示是否是一个一般概念,或者它是否是本书特有的命名约定。所以这就是为什么我特别引用这本书和如果有人已经读过它的部分。如果这是一个一般概念,但是如果有人能澄清线性学习机的双重表示意味着什么以及这种双重表示的优点是什么,我将不胜感激?

我希望这不是一个太模糊的问题,但不幸的是,我没有这些概念的背景或理解来进一步阐述我的查询。

任何帮助将不胜感激。

4

1 回答 1

3

这是一个笼统的概念,它不是特定于本书的。

对偶问题的主要好处是数据点只出现在点积内。每对数据点的点积通常用核矩阵表示。如果您使用不同类型的内核,您将获得不同类型的分类器(点:线性、rbf、:rbf 网络等)。这被称为内核技巧(或者就像您正在阅读的书籍似乎将其称为特征空间的隐式映射),这是过去十年机器学习中最重要的突破之一。

不过,并非所有东西都可以是内核。核矩阵需要是半正定的。维基百科上有一篇很棒的关于内核技巧的文章。此外,不仅可以对 L2 正则化二进制分类器 (SVM) 进行内核化,还有内核感知器、内核 PCA、内核一切。

于 2012-08-03T00:29:30.023 回答