你可以使用只有输入,输出和单层隐藏的神经网络来近似一个函数(不同于一条线,但仍然在x,y平面上:如cos,sin,arc,exp等)神经元?
答案 0 :(得分:1)
是的,你可以!实际上,这就是通用近似理论所说的,简而言之:具有单个隐藏层的前馈网络可以近似任何连续函数。然而,它没有说明该层中的神经元数量(可能非常高)以及算法优化此类网络权重的能力。它说的是这样的网络存在。
以下是Cybenko的原始出版物的链接,他使用sigmoid激活函数进行证明:http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.441.7873&rep=rep1&type=pdf
这里有更友好的推导:http://mcneela.github.io/machine_learning/2017/03/21/Universal-Approximation-Theorem.html