我对以前从未见过的非线性回归算法有了一个想法:
我们使用梯度下降为数据拟合一个简单的参数函数,例如径向基函数。我们从中找到残差,然后对它拟合一个函数,重复这个过程以减少错误并建立一个叠加函数的集合。(我假设可以说服搜索首先找到适合最多点的函数)
如前所述,该算法会过拟合。我认为有几种方法可以克服这个问题,但最明显的方法可能是限制安装的功能数量。
我认为它应该比神经网络或 rbf 网络更快,因为它不必一次调整这么多参数。没有可供选择的网络架构。它应该比 M5 等决策树算法更准确,因为它可以更紧密地遵循连续曲线,并且不必选择要分割的属性。
以前试过吗?如果是,为什么没有成功?