在找出可以应用于数据集的目标值(y 列)的许多转换之后,例如 box-cox 转换,我了解到线性回归模型需要使用正态分布的目标值进行训练才能提高效率.(https://stats.stackexchange.com/questions/298/in-linear-regression-when-is-it-appropriate-to-use-the-log-of-an-independent-va)
我想知道这是否同样适用于非线性回归算法。目前,我已经看到 kaggle 上的人们通过使用 xgboost 使用对数转换来减轻异方差性,但他们从未提及是否也这样做是为了获得正态分布的目标值。
我试图做一些研究,我在第 11 页的 Andrew Ng 的讲义(http://cs229.stanford.edu/notes/cs229-notes1.pdf)中发现最小二乘成本函数,被许多算法线性使用和非线性,是通过假设误差的正态分布得出的。我相信如果误差应该是正态分布的,那么目标值也应该是正态分布的。如果这是真的,那么所有使用最小二乘成本函数的回归算法应该更好地处理正态分布的目标值。
由于 xgboost 使用最小二乘成本函数进行节点拆分(http://cilvr.cs.nyu.edu/diglib/lsml/lecture03-trees-boosting.pdf - slide 13)那么如果我转换目标,这个算法可能会更好使用 box-cox 变换来训练模型的值,然后在输出上应用逆 box-cox 变换以获得预测值。从理论上讲,这会产生更好的结果吗?