在scikit-learn中,SGDRegressor
执行随机梯度下降,即,它使用单个样本而不是整个样本(例如,大小为n
的样本)来更新模型系数。但是,它仍然会将整个数据集加载到内存中。
另一方面,partial_fit
的{{1}}方法只将SGDRegressor
样本的一个子集加载到内存中,因此可以帮助处理大型数据集。
我的问题是:
n
方法(尽管有时将其与基于我的网络搜索的微型批次GD进行比较)仍然仅使用一个样本来更新模型系数吗?据我了解,小批量GD算法不应使用单个样本,而应使用n个样本的子集来更新系数,以作为随机GD与批GD之间的折衷。