3

这似乎是一个非常基本的问题,但我似乎无法在任何地方找到答案。一般来说,我是 SVM 和 ML 的新手,我正在尝试做一些简单的练习,但结果似乎不匹配。我将 e1071 与 R 一起使用,并且一直在阅读James、Witten、Hastie 和 Tibshirani的统计学习简介。

我的问题:为什么当我使用 predict 时,我似乎没有任何分类错误,而 tune 函数的结果却表明错误率非零?我的代码(我正在查看三个类):

set.seed(4)
dat <- data.frame(pop = rnorm(900, c(0,3,6), 1), strat = factor(rep(c(0,1,2), times=300)))
ind <- sample(1:900)
train <- dat[ind[1:600],]
test <- dat[ind[601:900],]

tune1 <- tune(svm, train.x=train[,1], train.y=train[,2], kernel="radial", ranges=list(cost=10^(-1:2), gamma=c(.5,1,2)))
svm.tuned <- svm(train[,2]~., data=train, kernel = "radial",  cost=10, gamma=1) # I just entered the optimal cost and gamma values returned by tune
test.pred <- predict(svm.tuned, newdata=data.frame(pop=test[,1],strat=test[,2]))

因此,当我查看 test.pred 时,我发现每个值都与真正的类标签匹配。然而,当我调整模型时,它给出了大约 0.06 的错误率,无论哪种方式,0 的测试错误率对于不可分离的数据来说似乎都是荒谬的(除非我错认为这是不可分离的?)。任何澄清都会非常有帮助。非常感谢。

4

1 回答 1

5

tune函数执行 10 次交叉验证。它将您的训练数据随机分成 10 个部分,然后迭代:

  • 选择它们中的每一个并将其称为“验证集”
  • 选择剩下的 9 个并称它们为“训练集”
  • 它在训练集上使用给定参数训练 SVM,并检查它在验证集上的工作情况
  • 计算这 10 个“折叠”的平均误差

来自“tune”功能的信息就是这个平均误差。一旦选择了最佳参数,您就可以在整个集合上训练您的模型,这恰好比用于调整的参数大 1/9。结果,在您的特定情况下(它不经常发生)-您得到了可以完美预测您的“测试”集的分类器,并且在调整时尝试了一些较小的分类器-犯了一个小错误-这就是为什么您将获得有关不同错误的信息。

更新

看来,你实际上也在输入标签上训练你的模型..看看你的

svm.tuned$SV

变量,它保存支持向量。

要训​​练 svm,只需运行

svm(x,y,kernel="...",...)

例如

svm(train$pop, train$strat, kernel="linear" )

这会导致一些错误分类(正如预期的那样,因为线性核不能完美地分离这些数据)。

或使用您的符号

svm.tuned <- svm(strat~., data=train, kernel = "radial",  cost=10, gamma=1)

请注意,您应该使用框架列的名称str,而不是索引。

于 2013-09-07T17:17:12.633 回答