从技术上讲,鉴于网络足够复杂且时间充足,是否总是可以将任何数据集过度拟合到训练误差为0的位置?
答案 0 :(得分:4)
神经网络是通用逼近器,这几乎意味着只要存在从输入到输出的确定性映射f,总是存在一组参数(对于足够大的网络而言,为您提供任意关闭的错误,以尽可能减少错误,但:
因此从数学角度来看,答案是 no ,从实际的角度来看 - 在有限训练集和确定性映射的假设下 - 答案是是。
特别是当您询问分类的准确性,并且每个数据点都有唯一标签的有限数据集时,可以很容易地手动构建具有100%准确度的神经网络。然而,这并不意味着可能的损失最小(如上所述)。因此,从优化的角度来看,您没有获得"零错误"。