0

为什么即使我尝试了从 0.01 到 25 的一长串 alpha,我的交叉验证岭回归模型中的错误也没有显着变化?

代码

from sklearn.linear_model import Ridge
from sklearn.model_selection import GridSearchCV

params={'alpha': [25,10,4,2,1.0,0.8,0.5,0.3,0.2,0.1,0.05,0.02,0.01]}
rdg_reg = Ridge()
clf = GridSearchCV(rdg_reg,params,cv=2,verbose = 1, scoring = 'neg_mean_squared_error')
clf.fit(x_dummied_poly,y)

clf.best_params_
#{'alpha': 4}

pd.DataFrame(clf.cv_results_)

clf.cv_results_

4

1 回答 1

2

你要么必须向我们提供数据,所以我们可以执行我们自己的一组特征选择和降维(我怀疑有人会为你做,因为这是一个非常乏味和耗时的过程,这就像一些机器学习项目你在训练中所做的,你得到报酬的)

或者

只需假设机器学习领域没有“免费午餐”即可。那句话的意思是;有“最佳”模型可以为您提供所需的内容。

这可以扩展到不同意义上的参数调整。没有硬性规定“alpha”是最好的参数;改变 alpha 值必须反映均方误差的显着变化。

或者

尝试在 CrossValidated StackExchange 中提出这个问题。

于 2017-08-25T06:51:36.740 回答