为什么我的交叉验证岭回归模型中的错误没有显着变化,即使我已经尝试了从0.01到25的长alpha列表?
from sklearn.linear_model import Ridge
from sklearn.model_selection import GridSearchCV
params={'alpha': [25,10,4,2,1.0,0.8,0.5,0.3,0.2,0.1,0.05,0.02,0.01]}
rdg_reg = Ridge()
clf = GridSearchCV(rdg_reg,params,cv=2,verbose = 1, scoring = 'neg_mean_squared_error')
clf.fit(x_dummied_poly,y)
clf.best_params_
#{'alpha': 4}
pd.DataFrame(clf.cv_results_)
答案 0 :(得分:0)
你要么必须向我们提供数据,所以我们可以执行我们自己的一组功能选择和降维(我怀疑任何人都会为你做,因为这是一个非常繁琐和耗时的过程,这个就像你在培训中所做的一些机器学习项目那样你得到了报酬)
或
假设有“没有免费午餐”这样的假设。在机器学习领域。这句话的意思是;有最好的'模型,为您提供您正在寻找的东西。
可以将其扩展到不同意义上的参数调整。没有严格的规则' alpha'是最好的参数;更改alpha值必须反映均值平方误差的显着变化。
或
尝试在CrossValidated StackExchange中询问此问题。