在提升树算法(如 xgboost 或 lightgbm)的超参数优化期间,是否可以在使用提前停止时直接控制提升轮数(估计器/树)的最小(而不仅仅是最大)数量?这种需求的动机是观察到在太少轮次后停止训练的模型始终欠拟合(其指标明显低于往往具有更多增强轮次的最先进模型)。
我知道的唯一解决方案是间接解决方案:调整链接的超参数 - 学习率(降低其在搜索空间中的上限)。当设置得太高时,学习率会导致模型拟合不足,从而导致训练停止得太快,即提升轮数太少。
在提升树算法(如 xgboost 或 lightgbm)的超参数优化期间,是否可以在使用提前停止时直接控制提升轮数(估计器/树)的最小(而不仅仅是最大)数量?这种需求的动机是观察到在太少轮次后停止训练的模型始终欠拟合(其指标明显低于往往具有更多增强轮次的最先进模型)。
我知道的唯一解决方案是间接解决方案:调整链接的超参数 - 学习率(降低其在搜索空间中的上限)。当设置得太高时,学习率会导致模型拟合不足,从而导致训练停止得太快,即提升轮数太少。