1

我正在使用 LightGBM 2.0.6 Python API。我的训练数据有大约 80K 样本和 400 个特征,我正在训练一个迭代次数约为 2000 次的模型,该模型用于多类分类(#classes = 10)。当模型被训练时,当我打电话时model.feature_importance(),我遇到了分段错误。

我尝试生成人工数据进行测试(具有相同数量的样本、类、迭代和超参数),并且可以成功获得特征重要性列表。因此我怀疑问题是否发生取决于训练数据。

我想看看其他人是否遇到过这个问题,如果有,是如何克服的。谢谢你。

4

1 回答 1

0

这是 LightGBM 中的一个错误;2.0.4 没有这个问题。它也应该在 LightGBM master 中修复。所以要么降级到 2.0.4,等待下一个版本,要么使用 LightGBM master。

问题确实取决于训练数据;feature_importances segfault 仅当训练的集成中存在“恒定”树时,即具有单叶的树,没有任何分裂。

于 2017-08-28T07:12:54.280 回答