论文“深度学习需要重新思考概括”

时间:2017-07-11 14:22:34

标签: machine-learning neural-network

我正在阅读这篇论文Understanding Deep learning requires rethinking generalization,我无法弄清楚为什么它会在第5页,2.2节的含义,Redemacher复杂性中说这个界限是微不足道的?

  

由于我们的随机测试表明许多神经网络完全符合随机标签的训练集,我们期望相应模型H的Rad(H)= 1. 这当然是一个微不足道的上界Rademacher的复杂性不会导致实际设置中有用的泛化界限。

显然我缺少一些关于Radmacher的知识,因为我不明白他们是如何得出这个结论的。如果有人能向我解释,我会非常感激

1 个答案:

答案 0 :(得分:0)

在论文中,函数h以1为界,因此Rademacher的复杂度通常为1(您将n项加起来等于1并除以n)。< / p>