23

我想使用 lgb.Dataset 对 LightGBM 模型进行交叉验证使用early_stopping_rounds。以下方法对 XGBoost 的xgboost.cv没有问题。我不喜欢在 GridSearchCV 中使用 Scikit Learn 的方法,因为它不支持提前停止或 lgb.Dataset。

import lightgbm as lgb
from sklearn.metrics import mean_absolute_error
dftrainLGB = lgb.Dataset(data = dftrain, label = ytrain, feature_name = list(dftrain))

params = {'objective': 'regression'}
    
cv_results = lgb.cv(
        params,
        dftrainLGB,
        num_boost_round=100,
        nfold=3,
        metrics='mae',
        early_stopping_rounds=10
        )

任务是做回归,但是下面的代码会抛出错误:

Supported target types are: ('binary', 'multiclass'). Got 'continuous' instead.

LightGBM 是否支持回归,还是我提供了错误的参数?

4

1 回答 1

43

默认情况下,lightgbm.cv 中的 stratify 参数是True. 根据文档

stratified (bool, optional (default=True)) -- 是否执行分层抽样。

但分层仅适用于分类问题。因此,要使用回归,您需要将其设为 False。

cv_results = lgb.cv(
        params,
        dftrainLGB,
        num_boost_round=100,
        nfold=3,
        metrics='mae',
        early_stopping_rounds=10,

        # This is what I added
        stratified=False
        )

现在它的工作。

于 2018-04-11T12:37:55.623 回答