0

我正在使用 XGBoost 进行一些实验。我将迭代次数设置为 1000 并得到结果 - 合理的..

比我尝试做一些不同的事情:

而不是运行 1000 次迭代,我想运行 100 次迭代,这个重复 10 次(总共也 1000 次迭代)。在这 10 步之间,我设置了:target_learn = target_learn - target_fitted(来自上一步)。

而不是 target_fitted = target_fitted + 预测

Target_fitted 预测是通过对所有数据集的测试集进行交叉验证获得的。

我得到了不同的结果——准确度很差。

比我跑得更远,只跑了 5 次迭代,做了 200 次……甚至更糟……

我之所以尝试这样做,是因为我想在迭代期间更改学习矩阵(尝试做一些重复性的事情)。

任何想法为什么结果不同......在我看来,每一步的第一次迭代都是不同的,所以我在模型中多次迭代,这正在扼杀准确性......

其他参数一样。。

或者也许我错过了完整的东西..?谢谢

4

1 回答 1

0

好的,我明白了,有设置:

默认设置:'base_score':0.5

导致这个问题...

于 2015-11-08T18:59:26.640 回答