1

我试图使用 Python 的 scikit-learn 和 R 的 glmnet 获得相同的结果拟合套索。一个有用的链接

如果我在 Python 中指定“normalize = True”,在 R 中指定“standardize = T”,它们给了我相同的结果。

Python:

from sklearn.linear_model import Lasso
X = np.array([[1, 1, 2], [3, 4, 2], [6, 5, 2], [5, 5, 3]])
y = np.array([1, 0, 0, 1])
reg = Lasso(alpha =0.01, fit_intercept = True, normalize =True)
reg.fit(X, y)
np.hstack((reg.intercept_, reg.coef_))

Out[95]: array([-0.89607695,  0.        , -0.24743375,  1.03286824])

回复:

reg_glmnet = glmnet(X, y, alpha = 1, lambda = 0.02,standardize = T)
coef(reg_glmnet)

4 x 1 sparse Matrix of class "dgCMatrix"
                    s0
(Intercept) -0.8960770
V1           .        
V2          -0.2474338
V3           1.0328682

但是,如果我不想标准化变量并设置 normalize =False 和 standardize = F,他们给了我完全不同的结果。

Python:

from sklearn.linear_model import Lasso
Z = np.array([[1, 1, 2], [3, 4, 2], [6, 5, 2], [5, 5, 3]])
y = np.array([1, 0, 0, 1])
reg = Lasso(alpha =0.01, fit_intercept = True, normalize =False)
reg.fit(Z, y)
np.hstack((reg.intercept_, reg.coef_))

Out[96]: array([-0.88      ,  0.09384212, -0.36159299,  1.05958478])

回复:

reg_glmnet = glmnet(X, y, alpha = 1, lambda = 0.02,standardize = F)
coef(reg_glmnet)

4 x 1 sparse Matrix of class "dgCMatrix"
                     s0
(Intercept) -0.76000000
V1           0.04441697
V2          -0.29415542
V3           0.97623074

Python 的 Lasso 中的“标准化”和 R 的 glmnet 中的“标准化”有什么区别?

4

1 回答 1

0

目前,关于文档normalize状态的参数“如果您希望标准化,请在调用 fit 之前使用。”StandardScalernormalize=False

所以显然 normalize 和 standardize 与 不一样sklearn.linear_model.Lasso。阅读了StandardScaler文档后,我无法理解其中的区别,但是提供的参数描述暗示了存在差异的事实normalize

于 2021-01-21T21:00:10.757 回答