SGDRegressorpartial_fit梯度下降更新

时间:2019-05-27 22:11:39

标签: scikit-learn regression stochastic-gradient

在scikit-learn中,SGDRegressor执行随机梯度下降,即,它使用单个样本而不是整个样本(例如,大小为n的样本)来更新模型系数。但是,它仍然会将整个数据集加载到内存中。

另一方面,partial_fit的{​​{1}}方法只将SGDRegressor样本的一个子集加载到内存中,因此可以帮助处理大型数据集。

我的问题是:

  1. n方法(尽管有时将其与基于我的网络搜索的微型批次GD进行比较)仍然仅使用一个样本来更新模型系数吗?据我了解,小批量GD算法不应使用单个样本,而应使用n个样本的子集来更新系数,以作为随机GD与批GD之间的折衷。
  2. 如果对1的回答为是,是否有办法在scikit-learn回归设置中执行迷你批处理梯度?

0 个答案:

没有答案