我可以理解为什么 soft Margin SVM 会受到不平衡训练集的影响:最小化优化问题的误差可以驱动将所有数据训练分类为负(如果 |negative examples| >> |positive examples| )。
但是,在硬边距 SVM 中,我没有松弛变量和 C 常数,所以我不想最小化误差,因为硬边距 SVM 预计没有错误(对于问题的定义)!硬边距 SVM 只是搜索支持向量并最大化类之间的边距,支持由支持向量“识别”的超平面;现在,如果我在负支持向量(即负类支持超平面)“后面”有很多点或相同数量的正点,这些不会影响我的边距和分离超平面;
它总是相同的,因为它仅取决于支持向量,并且无论我是否增加点数,它们总是相同的!为什么硬边距 SVM 会受到不平衡数据集的影响,或者我的推理有误?谢谢!