所以我有以下代码 -
params = {'n_estimators': [1000, 2000], 'max_depth': [10, 20], 'min_samples_split': [2, 3],
'learning_rate': [0.1, 0.05, 0.01], 'loss': ('ls', 'huber', 'lad', 'quantile'), 'verbose': [1]}
gbr = ensemble.GradientBoostingRegressor()
clf = GridSearchCV(gbr, params)
而且,虽然我不认为我已经考虑了很多,但它仍然需要永远确定最佳参数。看了几个小时后,我看到了很棒的情况(verbose:[1]
)并希望阻止它继续下去。我不想在早上回到这里,并希望它已经完成。我想现在完成它而不会失去在这个过程中调整的时间。
有没有一种安全的方法可以停止调整并仍能获得最佳效果?
答案 0 :(得分:1)
如果这个问题可以解决,then the answer appears to be no. 我知道几个星期前我这样做的时候,我也很不耐烦了。我只是通过日志按c + +浏览我希望它可以实现的数字。从95,94,93开始......等。
答案 1 :(得分:1)
我使用以下方法为DNN获取最佳超参数(您可以自己使用):
当然,如果你按照你的图片运行代码,就不会删除日志。
但正如我在这里看到的,你内部没有太多可能的参数组合。那么为什么它会永远运行: