一般来说,自动编码器是参数化还是非参数化(在模式识别方面)? 我认为两者都是可能的,因为你可以假设一个潜在的错误分布,但你也可以用不同的方法估计错误,对吗?
答案 0 :(得分:0)
除非您使用参数的非标准定义或自动编码器,否则自动编码器是100%参数化的。
它与假设误差分布无关 - 最终模型分布由一组有限的参数(神经网络的权重)表示,因此模型是参数化的。每个基于神经网络的模型都是参数化的(除非考虑无界NN架构,但只要它是一个单一的固定架构,每个"经典" NN本质上是参数化的。)
当然,人们可以定义"怪异的"非参数自动编码器,使用GP或其他非参数方法这样做,但它只是成为命名约定的问题 - 什么是,什么不是 - 自动编码器。如果通过自动编码器,我们的意思是"传统"神经网络 - 它是参数化的。如果我们指的是经过训练以最小化E [L(f(x |θ),x)的任何模型f(x |θ),则无法回答,因为该族由参数和非参数模型组成