我在sci-kit学习中使用Ridge回归功能。
有一个交叉验证函数RidgeCV。基本(示例)设置为:
RidgeCV(alphas=[0.1, 1.0, 10.0], cv=None, fit_intercept=True, scoring=None,
normalize=False,store_cv_values=True)
让我们说我想做10倍的简历。我用“cv =”参数设置它吗?我看到的每个RidgeCV都将cv设置为cv = None。
1)甚至不确定这是设置10倍的正确位置。
2)除了“无”之外,在文档中找不到其他CV =参数值。
由于
答案 0 :(得分:3)
如果您设置cv=None
,那么RidgeCV
将使用"广义交叉验证"执行留一法交叉验证。公式,一个分析公式,可以为一个岭回归的计算成本提供留一法错误。
如果您想使用其他交叉验证方案,您可以:只需从sklearn.cross_validation
导入它们即可。例如
from sklearn.cross_validation import KFold, ShuffleSplit
cv1 = KFold(n_samples, k=10)
cv2 = ShuffleSplit(n_samples, test_size=.2, n_iter=20)
然后,您可以将这些迭代器作为cv=...
传递。如果您将cv
设置为某个数字,例如cv=5
,则默认为KFold(n_samples, k=5)
交叉验证。