11

问题

r2_score为什么scikit-learn 中的函数与Wikipedia 中描述的确定系数公式之间存在显着差异?哪个是正确的?


语境

我正在使用 Python 3.5 来预测线性和二次模型,我正在尝试的拟合优度度量之一是 . r2_score但是,在测试时,度量标准scikit-learn和维基百科中提供的计算之间存在显着差异。


代码

我在这里提供我的代码作为参考,它计算上面链接的维基百科页面中的示例。

从 sklearn.metrics 导入 r2_score
导入 numpy

y = [1, 2, 3, 4, 5]
f = [1.9, 3.7, 5.8, 8.0, 9.6]

# 转换为numpy数组并保证双精度避免单精度错误
观察 = numpy.array(y, dtype=numpy.float64)
预测 = numpy.array(f, dtype=numpy.float64)

scipy_value = r2_score(观察,预测)

>>> scipy_value:

很明显,scipy计算值是-3.8699999999999992,而维基百科中的参考值是0.998

谢谢!

更新:这与关于如何在 scikit-learn 中计算 R^2 的问题不同,因为我试图理解并澄清的是两个结果之间的差异。该问题表明 scikit 中使用的公式与维基百科的相同,不应导致不同的值。

更新#2:事实证明我在阅读维基百科文章的示例时犯了一个错误。下面的答案和评论提到我提供的示例是针对示例中 (x, y) 值的线性最小二乘拟合。为此,维基百科文章中的答案是正确的。为此,提供的 R^2 值为 0.998。对于两个向量之间的 R^2,scikit 的答案也是正确的。非常感谢你的帮助!

4

5 回答 5

10

我认为您误解了维基百科。维基百科上的例子没有说明:

y=[1,2,3,4,5]
f=[1.9, 3.7, 5.8, 8.0, 9.6]
R^2 = 0.998

相反,它表示R^2线性最小二乘拟合数据:

x=[1,2,3,4,5]
y=[1.9, 3.7, 5.8, 8.0, 9.6]

等于0.998

考虑这个脚本,它首先用于np.linalg.lstsq查找最小二乘拟合,并且使用这两种方法来找到R^2两者的 0.998:

import numpy as np
from sklearn.metrics import r2_score

x=np.arange(1,6,1)
y=np.array([1.9, 3.7, 5.8, 8.0, 9.6])

A=np.vstack([x, np.ones(len(x))]).T

# Use numpy's least squares function
m, c = np.linalg.lstsq(A, y)[0]

print m,c
# 1.97 -0.11

# Define the values of our least squares fit
f=m*x+c

print f
# [ 1.86  3.83  5.8   7.77  9.74]

# Calculate R^2 explicitly
yminusf2=(y-f)**2
sserr=sum(yminusf2)
mean=float(sum(y))/float(len(y))
yminusmean2=(y-mean)**2
sstot=sum(yminusmean2)
R2=1.-(sserr/sstot)

print R2
# 0.99766066838

# Use scikit
print r2_score(y,f)
# 0.99766066838

r2_score(y,f) == R2
# True
于 2015-10-30T11:20:47.473 回答
8

提到的问题是正确的——如果你通过计算残差平方和和总平方和,你会得到与 sklearn 相同的值:

In [85]: import numpy as np

In [86]: y = [1,2,3,4,5]

In [87]: f = [1.9, 3.7, 5.8, 8.0, 9.6]

In [88]: SSres = sum(map(lambda x: (x[0]-x[1])**2, zip(y, f)))

In [89]: SStot = sum([(x-np.mean(y))**2 for x in y])

In [90]: SSres, SStot
Out[90]: (48.699999999999996, 10.0)

In [91]: 1-(SSres/SStot)
Out[91]: -3.8699999999999992

负值背后的想法是,如果您每次都预测平均值(对应于 r2 = 0),您会更接近实际值。

于 2015-10-30T03:23:08.357 回答
3

决定系数有效地将数据的方差与残差的方差进行了比较。残差是预测值和观察值之间的差异,其方差是该差异的平方和。

如果预测是完美的,则残差的方差为零。因此,决定系数为 1。如果预测不完美,一些残差是非零的,并且残差的方差是正的。因此,决定系数小于一。

玩具问题显然具有较低的决定系数,因为大多数预测值都偏离了。确定系数-3.86意味着残差4.86的方差是观测值方差的倍数。

0.998值来自数据集的线性最小二乘拟合的确定系数。这意味着观察值通过线性关系(加上一个常数)与预测值相关,使残差的方差最小化。玩具问题的观察值和预测值高度线性相关,因此线性最小二乘拟合的确定系数非常接近 1。

于 2015-10-30T12:06:29.480 回答
3

两种方法都使用相同的公式来计算 R 方。查看下面的代码:

    # Data
    X=np.array([1.9, 3.7, 5.8, 8.0, 9.6]).reshape(-1, 1)
    y=[1,2,3,4,5]

    # Import module
    from sklearn.linear_model import LinearRegression
    from sklearn.metrics import r2_score

    reg = LinearRegression().fit(X, y)

    # Predict the target variable
    y_pred=reg.predict(X)

    # R-Square fitness
    print('R-Square(metrics):', r2_score(y, y_pred))


    # R-Square using score method
    print('R-Sqaure(Score):',reg.score(X, y))

输出:R-Square(指标):0.9976606683804627 R-Sqaure(分数):0.9976606683804627

于 2019-11-29T11:13:17.290 回答
0

两者都是正确的。问题是 scikit learn 直接在数据上使用 R2 的方程。

y = [1, 2, 3, 4, 5]

f = [1.9, 3.7, 5.8, 8.0, 9.6]

Scikit learn 计算 SSR 和 SST 时考虑 y 是 True 值,f 是 y 的预测值。

Wikipedia 使用 y 作为特征数组 (x),而 f 是您需要预测的对象 (y)。所以在 f_pred = 1.97y + 0.11 中有一个回归。所以,现在你有了 f 的真实值和 f 的 f_pred。R2 在它们之间计算。

y = [1, 2, 3, 4, 5]

f = [1.9, 3.7, 5.8, 8.0, 9.6]

f_pred = [1.86, 3.83, 5.8, 7.77, 9.74]

如果使用 f 和 f_pred 数据使用公式 (1- SSR/SST):

SSR = SUM[(f-fp_pred)^2] = SUM[0.0016, 0.0169, 0.0529, 0.0196, 0.091] = 0.091

SST = SUM[(f-AVE(f))^2] = SUM[15.21, 4.41, 4.84, 14.44, 38.9] = 38.9

R2 = (1-0.091/38.9) = 0.998

scikit learn 中的负 R2 意味着您的模型比观察到的训练数据的平均值差。负 R2 尤其发生在测试数据中,因为它们不参与拟合建模。当 scikit learn 中的 R2 值为负时,使用 True 和 Pred 值之间的线性回归的 R2 将使 R2 接近于零。

于 2020-12-29T15:08:43.983 回答