0

我有一个二元分类 XGBTree 模型。用于训练模型的数据框包含许多自变量(x),我想优化一个 x 以提高结果变为 1 的机会。

我想知道它是如何实现的?我已经搜索了默认的优化函数,但似乎它只能求解方程,但 XGBTree 模型没有可供我输入的方程。和 Gurobi 一样,我看到的很多例子都需要一个方程。

无论如何我可以使用 XGBTree 模型进行优化吗?如果是这样,我该如何实现这种方法?我用来训练 XGBTree 的代码如下。

谢谢你。

xgb_grid<-expand.grid(
    nrounds = 500,
    max_depth = 5,
    eta = c(0.04, 0.05, 0.06, 0.07, 0.08, 0.09, 0.1, 0.11, 0.12),
    gamma = 0.3,
    colsample_bytree = 0.25,
    min_child_weight = 2,
    subsample = 0.5
)

xgb <- train(y ~ .,                 # model specification
             data = train,        # train set used to build model
             method = "xgbTree",    # type of model you want to build
             trControl = ctrl,      # how you want to learn
             tuneGrid = xgb_grid,   # tune grid
             metric = "ROC",        # performance measure
             verbose = TRUE
)

一些真实的例子是如何实现的。

4

0 回答 0