一个相当简单的问题:参数"标准化"对于sklearn的log_loss指标吗?
根据documentation:" normalize:bool,optional(default = True) 如果为真,则返回每个样本的平均损失。否则,返回每个样本损失的总和。"我的理解是,它是否包括N,真是平均,False是和:logloss = -1 / N(每个案例损失的总和) log loss function
如果是这样,优化其中一个并没有什么不同,那么,为什么我们更喜欢一个而不是另一个呢?换句话说,将参数放在什么位置是什么意思?个人偏好?
答案 0 :(得分:0)
虽然f(x)和1 / N f(x)的最小化是等价的,但当你处理形式为f(x)+ alpha g(x)与1 / N的函数时,常数的含义会发生变化f(x)+ alpha g(x),当你学习例如正则化逻辑回归时会发生这种情况,因此在第二种情况下,等效的alpha是1 / N *之前的alpha。这里没有“一个选择”,它只取决于应用程序 - 有时意味着更适合(当你需要样本大小不变时),有时候总和。