1

我将使用多个变量进行回归分析。在我的数据中,我有n = 23 个特征和m = 13000个训练示例。这是我的训练数据图(房屋面积与价格):

在此处输入图像描述

图上有 13000 个训练样例。如您所见,它是相对嘈杂的数据。我的问题是在我的案例中使用哪种回归算法更合适、更合理。我的意思是使用简单的线性回归或一些非线性回归算法更合乎逻辑。

为了更清楚,我提供了一些例子。
这是一些不相关的线性回归拟合示例:

在此处输入图像描述

还有一些不相关的非线性回归拟合示例: 在此处输入图像描述

现在我为我的数据提供一些假设的回归线:我的数据的 在此处输入图像描述 AFAIK 原始线性回归将产生非常高的错误成本,因为它是非常嘈杂和分散的数据。另一方面,没有明显的非线性模式(例如正弦)。在我的案例(房价数据)中使用哪种回归算法更合理,以便获得或多或少合适的房屋价格预测,为什么这种算法(线性或非线性)更合理?

4

1 回答 1

3

使用非线性算法将减少训练集上的错误,因为您将使用更“适合”您的数据的曲线。但是,它可能会导致过度拟合

为避免这种情况,一件好事是同时在训练数据和测试数据上绘制误差(成本函数)。增加模型的复杂性会减少训练数据的误差,但在某一时刻,它会使测试数据的误差更高。

测试

于 2015-12-27T00:37:01.483 回答