看来你误会xgb.cv
了,它不是参数搜索功能。它只进行 k 折交叉验证,仅此而已。
在您的代码中,它不会更改param
.
要在 R 的 XGBoost 中找到最佳参数,有一些方法。这是2种方法,
(1) 使用mlr
包, http: //mlr-org.github.io/mlr-tutorial/release/html/
在 Kaggle 的 Prudential 挑战中有一个 XGBoost + mlr示例代码,
但该代码用于回归,而不是分类。据我所知,包中还没有mlogloss
度量标准mlr
,因此您必须自己从头开始编写 mlogloss 测量代码。CMIIW。
(2) 第二种方法,通过手动设置参数然后重复,例如,
param <- list(objective = "multi:softprob",
eval_metric = "mlogloss",
num_class = 12,
max_depth = 8,
eta = 0.05,
gamma = 0.01,
subsample = 0.9,
colsample_bytree = 0.8,
min_child_weight = 4,
max_delta_step = 1
)
cv.nround = 1000
cv.nfold = 5
mdcv <- xgb.cv(data=dtrain, params = param, nthread=6,
nfold=cv.nfold, nrounds=cv.nround,
verbose = T)
然后,你会找到最好的(最小的)mlogloss,
min_logloss = min(mdcv[, test.mlogloss.mean])
min_logloss_index = which.min(mdcv[, test.mlogloss.mean])
min_logloss
是 mlogloss 的最小值,而min_logloss_index
是索引(round)。
您必须多次重复上述过程,每次手动更改参数(mlr
为您重复)。直到最后你得到最好的全局最小值min_logloss
。
注意:您可以在 100 或 200 次迭代的循环中执行此操作,其中每次迭代您随机设置参数值。这样,您必须将最好的保存[parameters_list, min_logloss, min_logloss_index]
在变量或文件中。
注意:最好设置随机种子以set.seed()
获得可重复的结果。不同的随机种子产生不同的结果。因此,您必须保存[parameters_list, min_logloss, min_logloss_index, seednumber]
在变量或文件中。
说最后你在 3 次迭代/重复中得到 3 个结果:
min_logloss = 2.1457, min_logloss_index = 840
min_logloss = 2.2293, min_logloss_index = 920
min_logloss = 1.9745, min_logloss_index = 780
然后您必须使用第三个参数(它的全局最小值min_logloss
为1.9745
)。你最好的指数(nrounds)是780
。
获得最佳参数后,在训练中使用它,
# best_param is global best param with minimum min_logloss
# best_min_logloss_index is the global minimum logloss index
nround = 780
md <- xgb.train(data=dtrain, params=best_param, nrounds=nround, nthread=6)
我认为您不需要watchlist
进行培训,因为您已经完成了交叉验证。但如果你还想用watchlist
,也没关系。
更好的是,您可以使用提前停止xgb.cv
。
mdcv <- xgb.cv(data=dtrain, params=param, nthread=6,
nfold=cv.nfold, nrounds=cv.nround,
verbose = T, early.stop.round=8, maximize=FALSE)
使用此代码,当mlogloss
值没有在 8 步内减少时,xgb.cv
将停止。您可以节省时间。您必须设置maximize
为FALSE
,因为您期望最小 mlogloss。
这是一个示例代码,具有 100 次迭代循环和随机选择的参数。
best_param = list()
best_seednumber = 1234
best_logloss = Inf
best_logloss_index = 0
for (iter in 1:100) {
param <- list(objective = "multi:softprob",
eval_metric = "mlogloss",
num_class = 12,
max_depth = sample(6:10, 1),
eta = runif(1, .01, .3),
gamma = runif(1, 0.0, 0.2),
subsample = runif(1, .6, .9),
colsample_bytree = runif(1, .5, .8),
min_child_weight = sample(1:40, 1),
max_delta_step = sample(1:10, 1)
)
cv.nround = 1000
cv.nfold = 5
seed.number = sample.int(10000, 1)[[1]]
set.seed(seed.number)
mdcv <- xgb.cv(data=dtrain, params = param, nthread=6,
nfold=cv.nfold, nrounds=cv.nround,
verbose = T, early.stop.round=8, maximize=FALSE)
min_logloss = min(mdcv[, test.mlogloss.mean])
min_logloss_index = which.min(mdcv[, test.mlogloss.mean])
if (min_logloss < best_logloss) {
best_logloss = min_logloss
best_logloss_index = min_logloss_index
best_seednumber = seed.number
best_param = param
}
}
nround = best_logloss_index
set.seed(best_seednumber)
md <- xgb.train(data=dtrain, params=best_param, nrounds=nround, nthread=6)
使用此代码,您可以运行 100 次交叉验证,每次都使用随机参数。然后你得到最好的参数集,即在迭代中具有 minimum min_logloss
。
增加 的值,early.stop.round
以防您发现它太小(过早停止)。您还需要根据您的数据特征更改随机参数值的限制。
而且,对于 100 或 200 次迭代,我认为您想更改verbose
为 FALSE。
旁注:这是随机方法的示例,您可以通过贝叶斯优化对其进行调整以获得更好的方法。如果你有 XGBoost 的 Python 版本,有一个很好的 XGBoost 超参数脚本,https://github.com/mpearmain/BayesBoost可以使用贝叶斯优化搜索最佳参数集。
编辑:我想添加第三种手动方法,由 Kaggle 大师“Davut Polat”在Kaggle 论坛中发布。
编辑:如果您了解 Python 和 sklearn,您还可以将GridSearchCV与 xgboost.XGBClassifier 或 xgboost.XGBRegressor 一起使用