3

我是机器学习的新手,正在尝试Kaggle 上的森林覆盖预测比赛,但我很早就挂断了电话。运行以下代码时出现以下错误。

train.default(x, y, weights = w, ...) 中的错误:
最终调整参数无法确定
另外:有 50 个或更多警告(使用 warnings() 查看前 50 个)
# Load the libraries
library(ggplot2); library(caret); library(AppliedPredictiveModeling)
library(pROC)
library(Amelia)

set.seed(1234)

# Load the forest cover dataset from the csv file
rawdata <- read.csv("train.csv",stringsAsFactors = F)
#this data won't be used in model evaluation. It will only be used for the submission.
test <- read.csv("test.csv",stringsAsFactors = F)

########################
### DATA PREPARATION ###
########################

#create a training and test set for building and evaluating the model
samples <- createDataPartition(rawdata$Cover_Type, p = 0.5,list = FALSE)
data.train <- rawdata[samples, ]
data.test <- rawdata[-samples, ]

model1 <- train(as.factor(Cover_Type) ~ Elevation + Aspect + Slope + Horizontal_Distance_To_Hydrology, 
                data = data.train, 
                method = "rf", prox = "TRUE")
4

2 回答 2

8

以下应该有效:

model1 <- train(as.factor(Cover_Type) ~ Elevation + Aspect + Slope + Horizontal_Distance_To_Hydrology,
                          data = data.train,
                          method = "rf", tuneGrid = data.frame(mtry = 3))

最好指定tuneGrid参数是具有可能调整值的数据帧。查看?randomForest?train了解更多信息。rf只有一个调优参数mtry,它控制为每棵树选择的特征数量。

您还可以运行modelLookup以获取每个模型的调整参数列表

> modelLookup("rf")
#  model parameter                         label forReg forClass probModel
#1    rf      mtry #Randomly Selected Predictors   TRUE     TRUE      TRUE
于 2014-12-29T06:13:53.447 回答
4

我也在做 Kaggle 比赛,并且一直在使用“caret”包来帮助选择“最佳”模型参数。在遇到许多这些错误后,我查看了幕后的脚本,发现调用了一个名为“class2ind”的函数,该函数不存在(至少在我知道的任何地方)。我终于在“nnet”包中找到了另一个名为“class.ind”的函数。我决定尝试创建一个名为“class2ind”的本地函数并从“class.ind”函数中弹出代码。低,看,它奏效了!

# fix for caret
class2ind <- function(cl)
{
        n <- length(cl)
        cl <- as.factor(cl)
        x <- matrix(0, n, length(levels(cl)) )
        x[(1:n) + n*(unclass(cl)-1)] <- 1
        dimnames(x) <- list(names(cl), levels(cl))
        x
}
于 2015-03-29T22:36:01.677 回答