公式

时间:2018-05-18 14:22:30

标签: python machine-learning logistic-regression gradient-descent

考虑到公式术语,我认为SGD适用于Logistic回归的最终结果。不确定是否正确

只是想知道随机梯度下降和逻辑回归之间的关系。我猜它的工作原理类似于Neuron网络,它计算如何改善体重(应用链规则)。

换句话说,在计算LR公式之后,它在其上面应用链规则。为了获得更好的重量并使其保持在循环单位LR损失率接近于零,这是正确的吗? THX

例如,在完成LR计算后,

然后申请SGD(LR) - >得到更新的重量 - >在循环中再次执行LR,直到满足SGD

1 个答案:

答案 0 :(得分:1)

逻辑回归是使用逻辑函数(或类似变体)对离散系统建模的一种方法。也就是说,输出的系统具有有限数量的可能值。您可以将其视为一种分类算法(尽管此描述可能很危险,因为分类在技术上与回归不同),它将一组输入映射到一组有限的输出。

随机梯度下降梯度下降(或批量梯度下降)优化算法的变体。它不是同时使用所有(或“批量”)训练数据(可能非常计算/内存昂贵),而是使用迭代近似来找到跨越N维输入空间的函数的最小值。

随机梯度下降可用于构建逻辑回归模型,类似于如何使用它来构建线性回归模型。模型本身独立于用于训练它的优化算法。虽然随机梯度下降通常用作训练算法,但它不是 ONLY 选项。