我正在阅读这篇论文Understanding Deep learning requires rethinking generalization,我无法弄清楚为什么它会在第5页,2.2节的含义,Redemacher复杂性中说这个界限是微不足道的?
由于我们的随机测试表明许多神经网络完全符合随机标签的训练集,我们期望相应模型H的Rad(H)= 1. 这当然是一个微不足道的上界Rademacher的复杂性不会导致实际设置中有用的泛化界限。
显然我缺少一些关于Radmacher的知识,因为我不明白他们是如何得出这个结论的。如果有人能向我解释,我会非常感激
答案 0 :(得分:0)
在论文中,函数h
以1为界,因此Rademacher的复杂度通常为1(您将n
项加起来等于1并除以n
)。< / p>