0

我正在使用 xgb.cv 为我的问题确定正确数量的估计器,并且我正在使用“multi:softprob”和“mlogloss”。最初在我的代码中我设置:

num_boost_round = 999
early_stopping_rounds = 10  

问题是损失返回了很多小数,即使最后一个小数改变了,它对我来说对模型的好坏没有实际影响。这是我运行的第 170 轮左右的损失示例:

0.012855
0.012855
0.012855
0.012854666666666667
0.012854666666666667
0.012853999999999999
0.012853999999999999
0.012853666666666666
0.012853666666666666
0.012853666666666666
0.012852999999999998

您可以看到,几乎没有或根本没有继续的想法。在 15-20 轮提升之后,我的简历已经下降到这些数字。

有没有办法在损失比较(或报告)中使用更少的小数,这样可以更快地触发“early_stopping_rounds”并停止 cv?

任何想法,将不胜感激。

4

0 回答 0