我正在使用 XGBoost 进行一些实验。我将迭代次数设置为 1000 并得到结果 - 合理的..
比我尝试做一些不同的事情:
而不是运行 1000 次迭代,我想运行 100 次迭代,这个重复 10 次(总共也 1000 次迭代)。在这 10 步之间,我设置了:target_learn = target_learn - target_fitted(来自上一步)。
而不是 target_fitted = target_fitted + 预测
Target_fitted 预测是通过对所有数据集的测试集进行交叉验证获得的。
我得到了不同的结果——准确度很差。
比我跑得更远,只跑了 5 次迭代,做了 200 次……甚至更糟……
我之所以尝试这样做,是因为我想在迭代期间更改学习矩阵(尝试做一些重复性的事情)。
任何想法为什么结果不同......在我看来,每一步的第一次迭代都是不同的,所以我在模型中多次迭代,这正在扼杀准确性......
其他参数一样。。
或者也许我错过了完整的东西..?谢谢