解释GridSearchCV中的岭回归

时间:2017-08-24 08:59:49

标签: python scikit-learn linearmodels

为什么我的交叉验证岭回归模型中的错误没有显着变化,即使我已经尝试了从0.01到25的长alpha列表?

CODE

from sklearn.linear_model import Ridge
from sklearn.model_selection import GridSearchCV

params={'alpha': [25,10,4,2,1.0,0.8,0.5,0.3,0.2,0.1,0.05,0.02,0.01]}
rdg_reg = Ridge()
clf = GridSearchCV(rdg_reg,params,cv=2,verbose = 1, scoring = 'neg_mean_squared_error')
clf.fit(x_dummied_poly,y)

clf.best_params_
#{'alpha': 4}

pd.DataFrame(clf.cv_results_)

clf.cv_results_

1 个答案:

答案 0 :(得分:0)

你要么必须向我们提供数据,所以我们可以执行我们自己的一组功能选择和降维(我怀疑任何人都会为你做,因为这是一个非常繁琐和耗时的过程,这个就像你在培训中所做的一些机器学习项目那样你得到了报酬)

假设有“没有免费午餐”这样的假设。在机器学习领域。这句话的意思是;有最好的'模型,为您提供您正在寻找的东西。

可以将其扩展到不同意义上的参数调整。没有严格的规则' alpha'是最好的参数;更改alpha值必须反映均值平方误差的显着变化。

尝试在CrossValidated StackExchange中询问此问题。