sklearn logloss参数规范化功能

时间:2017-03-24 23:26:51

标签: machine-learning scikit-learn normalize

一个相当简单的问题:参数"标准化"对于sklearn的log_loss指标吗?

根据documentation:" normalize:bool,optional(default = True) 如果为真,则返回每个样本的平均损失。否则,返回每个样本损失的总和。"我的理解是,它是否包括N,真是平均,False是和:logloss = -1 / N(每个案例损失的总和) log loss function

如果是这样,优化其中一个并没有什么不同,那么,为什么我们更喜欢一个而不是另一个呢?换句话说,将参数放在什么位置是什么意思?个人偏好?

1 个答案:

答案 0 :(得分:0)

虽然f(x)和1 / N f(x)的最小化是等价的,但当你处理形式为f(x)+ alpha g(x)与1 / N的函数时,常数的含义会发生变化f(x)+ alpha g(x),当你学习例如正则化逻辑回归时会发生这种情况,因此在第二种情况下,等效的alpha是1 / N *之前的alpha。这里没有“一个选择”,它只取决于应用程序 - 有时意味着更适合(当你需要样本大小不变时),有时候总和。