所以,我使用的是在这里找到的超导数据集……它包含 82 个变量,我将数据子集为 2000 行。但是当我使用xgboost
它mlr3
时并没有计算所有变量的重要性!?
这是我设置所有内容的方式:
# Read in data
mydata <- read.csv("/Users/.../train.csv", sep = ",")
data <- mydata[1:2000,]
# set up xgboost using mlr3
myTaskXG = TaskRegr$new(id = "data", backend = data, target = "critical_temp")
myLrnXG = lrn("regr.xgboost")
myModXG <- myLrnXG$train(myTaskXG)
# Take a look at the importance
myLrnXG$importance()
这会输出如下内容:
wtd_mean_FusionHeat std_ThermalConductivity entropy_Density
0.685125173 0.105919410 0.078925149
wtd_gmean_FusionHeat wtd_range_atomic_radius entropy_FusionHeat
0.038797205 0.038461823 0.020889094
wtd_mean_Density wtd_std_FusionHeat gmean_ThermalConductivity
0.017211730 0.006662321 0.005598844
wtd_entropy_ElectronAffinity wtd_entropy_Density
0.001292733 0.001116518
正如你所看到的,那里只有 11 个变量......什么时候应该有 81 个ranger
......
关于正在发生的事情有什么建议吗?