2

所以我在理解简单的线性回归时遇到了一些问题。我确实读了很多书,所以我心中有基本的想法,但是当我们做一个时我不能完全理解。所以我有这个等式:

yi = a + bxi + ei

好的,所以我确实意识到这是一条直线的方程式,尽管我确实对“ei”感到好奇,因为我在互联网上找不到它,但我的教授一直在使用它。

所以我想找到 a 和 b,这样我就可以找到一条直线,希望它不会离我的数据太远(对吗?)。我知道我可以计算出来,但这不是我的问题。

我希望如果我在这里添加我的例子没问题,所以我可以解释我在做什么:数据集

x        y
8        6.4
8        6.8
3        1.7
2        2.3
2        3.8
1        2.3
1        5.0
1        4.0
1        3.4
0        2.3

计算所需的一切,我得到: b = 0.4599 a = 2.55827

(并且lm用 R 做这表明我是对的)。现在,如果我画这条直线abline(2.55827,0.4599)(首先进入截距??),它表明这不是一条好线,看着表格我完全同意。但是我理解对了吗?如果 x|y 点通过给定值排列(意味着没有特定模式),则找不到好的线,所以我只能找到一个相当好的线。

有人可以帮我吗?

4

3 回答 3

8

好的,所以我确实意识到这是一条直线的方程式,尽管我确实对“ei”感到好奇,因为我在互联网上找不到它,但我的教授一直在使用它。

这不是一条线的方程式。y i = a + bx i是直线的方程。e i是 a 和 b 给出的这条直线与您的测量值之间的误差。换句话说,e i = y i - (a + bx i )

线性回归所做的是找到使这些误差项的平方和最小化的ab的值。这种合身不一定是好的;这只是最好的(在最小二乘意义上)。残差的大小可以让您了解拟合的好坏。

为了能够理解拟合的好坏,您不仅需要知道残差,还需要知道各个测量中的误差。

于 2012-09-14T15:08:59.087 回答
1

Gil Strang 是伟大的应用数学家之一。他可以像其他人一样解释线性代数和最小二乘:

http://videolectures.net/mit18085f07_strang_lec04/

于 2012-09-15T12:17:41.763 回答
0

这似乎是一个老问题,但是有一篇很好的文章解释了线性回归背后的数学以及 R 语言中数学的逐步编码:http: //www.codophile.com/programming-linear-regression-在-r/

我希望这将有所帮助。

于 2015-08-05T15:59:42.110 回答