我已经阅读了很多论文,并且非常了解支持向量机的基本概念。你给它一个训练输入向量,它具有一组特征,并基于“优化函数”如何评估这个输入向量让我们称之为 x,(假设我们正在谈论文本分类),与输入向量相关联的文本x 被分类为两个预定义的类别之一,这仅适用于二进制分类。
所以我的第一个问题是通过上面描述的这个过程,所有的论文都首先说这个训练输入向量 x 被映射到更高的(可能是无限的)维空间。那么这个映射实现了什么或者为什么需要这个呢?假设输入向量 x 有 5 个特征,那么谁来决定 x 将映射到哪个“更高维度”?
第二个问题是关于以下优化方程:
min 1/2 wi(转置)*wi + C Σi = 1..n ξi
所以我知道 w 与图中支持向量的超平面的边距有关,我知道 C 是某种惩罚,但我不知道它是什么惩罚。在这种情况下,ξi 代表什么。
非常感谢对第二个问题的简单解释,因为我没有通过阅读技术论文来理解它。