1

我正在使用 mlr 包的框架来构建一个 svm 模型来预测图像中的土地覆盖类。我使用了 raster 包的 predict 函数,并将光栅转换为数据帧,然后使用“learner.model”作为输入在该数据帧上进行预测。这些方法给了我现实的结果。

工作顺利:

> predict(raster, mod$learner.model)

或者

> xy <- as.data.frame(raster, xy = T)

> C <- predict(mod$learner.model, xy)

但是,如果我在未指定 learner.model 的情况下对从栅格派生的数据框进行预测,则结果会不一样。

> C2 <- predict(mod, newdata=xy)

C2$data$response 与 C 不同。为什么?


这是一个演示该问题的可重现示例:

> library(mlr)
 > library(kernlab)
 > x1 <- rnorm(50)
 > x2 <- rnorm(50, 3)
 > x3 <- rnorm(50, -20, 3)
 > C <- sample(c("a","b","c"), 50, T)
 > d <-  data.frame(x1, x2, x3, C)
 > classif <- makeClassifTask(id = "example", data = d, target = "C")
 > lrn <- makeLearner("classif.ksvm", predict.type = "prob", fix.factors.prediction = T)
 > t <- train(lrn, classif)

 Using automatic sigma estimation (sigest) for RBF or laplace kernel

 > res1 <- predict(t, newdata = data.frame(x2,x1,x3))
 > res1

 Prediction: 50 observations
 predict.type: prob
 threshold: a=0.33,b=0.33,c=0.33
 time: 0.01
      prob.a    prob.b    prob.c response
 1 0.2110131 0.3817773 0.4072095        c
 2 0.1551583 0.4066868 0.4381549        c
 3 0.4305353 0.3092737 0.2601910        a
 4 0.2160050 0.4142465 0.3697485        b
 5 0.1852491 0.3789849 0.4357659        c
 6 0.5879579 0.2269832 0.1850589        a

 > res2 <- predict(t$learner.model, data.frame(x2,x1,x3))
 > res2
  [1] c c a b c a b a c c b c b a c b c a a b c b c c a b b b a a b a c b a c c c
 [39] c a a b c b b b b a b b
 Levels: a b c
!> res1$data$response == res2
  [1]  TRUE  TRUE  TRUE  TRUE  TRUE  TRUE FALSE  TRUE  TRUE  TRUE  TRUE FALSE
 [13]  TRUE  TRUE  TRUE FALSE  TRUE  TRUE  TRUE FALSE  TRUE  TRUE  TRUE  TRUE
 [25]  TRUE  TRUE  TRUE  TRUE  TRUE  TRUE FALSE  TRUE  TRUE  TRUE  TRUE  TRUE
 [37]  TRUE  TRUE  TRUE  TRUE  TRUE  TRUE  TRUE  TRUE  TRUE  TRUE  TRUE  TRUE
 [49]  TRUE FALSE

预测并不相同。在 mlr 关于预测的教程页面之后,我不明白为什么结果会有所不同。谢谢你的帮助。

-----

更新:当我对随机森林模型做同样的事情时,两个向量是相等的。这是因为 SVM 是规模相关的,而随机森林不是吗?

 > library(randomForest)

 > classif <- makeClassifTask(id = "example", data = d, target = "C")
 > lrn <- makeLearner("classif.randomForest", predict.type = "prob", fix.factors.prediction = T)
 > t <- train(lrn, classif)
 >
 > res1 <- predict(t, newdata = data.frame(x2,x1,x3))
 > res1
 Prediction: 50 observations
 predict.type: prob
 threshold: a=0.33,b=0.33,c=0.33
 time: 0.00
   prob.a prob.b prob.c response
 1  0.654  0.228  0.118        a
 2  0.742  0.090  0.168        a
 3  0.152  0.094  0.754        c
 4  0.092  0.832  0.076        b
 5  0.748  0.100  0.152        a
 6  0.680  0.098  0.222        a
 >
 > res2 <- predict(t$learner.model, data.frame(x2,x1,x3))
 > res2
  1  2  3  4  5  6  7  8  9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26
  a  a  c  b  a  a  a  c  a  b  b  b  b  c  c  a  b  b  a  c  b  a  c  c  b  c
 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50
  a  a  b  a  c  c  c  b  c  b  c  a  b  c  c  b  c  b  c  a  c  c  b  b
 Levels: a b c
 >
 > res1$data$response == res2
  [1] TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE
 [16] TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE
 [31] TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE TRUE
 [46] TRUE TRUE TRUE TRUE TRUE

----

另一个更新:如果我将 predict.type 从“prob”更改为“response”,则两个 svm 预测向量彼此一致。我将研究这些类型的差异,我曾认为“概率”给出了相同的结果,但也给出了概率。也许不是这样?

4

2 回答 2

1

正如您所发现的,“错误”的来源是,mlr并且kernlab预测类型具有不同的默认值。

mlr维护相当多的内部“状态”并检查每个学习者的参数以及如何处理培训和测试。您可以获得学习者将使用的预测类型lrn$predict.type,在您的情况下给出"prob"。如果您想了解所有血腥细节,请查看.classif.ksvm

不建议mlr像您在示例中那样混合使用 -wrapped 学习器和“原始”学习器,并且没有必要这样做。如果你混合它们,就会发生你发现的事情——所以在使用 时mlr使用mlr构造来训练模型、进行预测等。

mlr确实进行了测试以确保“原始”和包装的学习器产生相同的输出,例如classif.ksvm.

于 2015-08-04T03:13:32.910 回答
0

答案就在这里:

为什么 R 中 ksvm 的概率和响应不一致?

简而言之,ksvm type = "probabilities" 给出的结果与 type = "response" 不同。

如果我跑

 > res2 <- predict(t$learner.model, data.frame(x2,x1,x3), type = "probabilities")
 > res2

然后我得到与上面的 res1 相同的结果(type = "response" 是默认值)。

不幸的是,基于概率对图像进行分类似乎不如使用“响应”好。也许这仍然是估计分类确定性的最佳方法?

于 2015-08-03T22:20:41.167 回答