4

我不确定是否xgboost可以按照我需要的方式组合许多不错的功能(?),但我想做的是在多类因变量上运行具有稀疏数据预测器的随机森林。

我知道xgboost可以做任何一件事情:

bst <- xgboost(data = train$data, label = train$label, max.depth = 4, num_parallel_tree = 1000, subsample = 0.5, colsample_bytree =0.5, nround = 1, objective = "binary:logistic")

bst <- xgboost(data = sparse_matrix, label = output_vector, max.depth = 4, eta = 1, nthread = 2, nround = 10,objective = "binary:logistic")

  • 多项(多类)因变量模型通过multi:softmaxmulti:softprob

xgboost(data = data, label = multinomial_vector, max.depth = 4, eta = 1, nthread = 2, nround = 10,objective = "multi:softmax")

但是,当我尝试一次完成所有这些操作时,我遇到了关于不合格长度的错误:

sparse_matrix     <- sparse.model.matrix(TripType~.-1, data = train)
Y                 <- train$TripType
bst               <- xgboost(data = sparse_matrix, label = Y, max.depth = 4, num_parallel_tree = 100, subsample = 0.5, colsample_bytree =0.5, nround = 1, objective = "multi:softmax")
Error in xgb.setinfo(dmat, names(p), p[[1]]) : 
  The length of labels must equal to the number of rows in the input data
length(Y)
[1] 647054
length(sparse_matrix)
[1] 66210988200
nrow(sparse_matrix)
[1] 642925

我得到的长度错误是将我的单个多类依赖向量(我们称之为n)的长度与稀疏矩阵索引的长度进行比较,我认为对于j个预测变量来说,它是j * n 。

这里的具体用例是 Kaggle.com Walmart 竞赛(数据是公开的,但默认情况下非常大——大约 650,000 行和数千个候选特征)。我一直在通过 H2O 在其上运行多项式 RF 模型,但听起来很多其他人一直在使用xgboost,所以我想知道这是否可能。

如果不可能,那么我想知道是否可以/应该分别估计因变量的每个水平并尝试得出结果?

4

1 回答 1

6

这是正在发生的事情:

当你这样做时:

sparse_matrix <- sparse.model.matrix(TripType~.-1, data = train)

您正在丢失数据中的行

sparse.model.matrix默认情况下无法处理 NA,当它看到是一个时,它会丢弃该行

碰巧有 4129 行在原始数据中包含 NA。

这是这两个数字之间的区别:

length(Y)
[1] 647054

nrow(sparse_matrix)
[1] 642925

这适用于前面的示例的原因如下

在二项式情况下:

它正在回收 Y 向量并完成缺失的标签。(这是不好的)

在随机森林案例中:

(我认为)这是因为我随机森林从不使用先前树的预测,所以这个错误是看不见的。(这是不好的)

带走:

前面两个有效的例子都不能很好地训练

sparse.model.matrix删除 NA,您正在丢失训练数据中的行,这是一个大问题,需要解决

祝你好运!

于 2015-12-22T16:02:13.177 回答