我有一个二元分类 XGBTree 模型。用于训练模型的数据框包含许多自变量(x),我想优化一个 x 以提高结果变为 1 的机会。
我想知道它是如何实现的?我已经搜索了默认的优化函数,但似乎它只能求解方程,但 XGBTree 模型没有可供我输入的方程。和 Gurobi 一样,我看到的很多例子都需要一个方程。
无论如何我可以使用 XGBTree 模型进行优化吗?如果是这样,我该如何实现这种方法?我用来训练 XGBTree 的代码如下。
谢谢你。
xgb_grid<-expand.grid(
nrounds = 500,
max_depth = 5,
eta = c(0.04, 0.05, 0.06, 0.07, 0.08, 0.09, 0.1, 0.11, 0.12),
gamma = 0.3,
colsample_bytree = 0.25,
min_child_weight = 2,
subsample = 0.5
)
xgb <- train(y ~ ., # model specification
data = train, # train set used to build model
method = "xgbTree", # type of model you want to build
trControl = ctrl, # how you want to learn
tuneGrid = xgb_grid, # tune grid
metric = "ROC", # performance measure
verbose = TRUE
)
一些真实的例子是如何实现的。