神经网络:我们得到什么样的连续性?

时间:2017-12-10 22:36:28

标签: neural-network deep-learning

我认为标准神经网络是连续函数,因为它们是函数的组合,通过权重和一些可微分的非线性在线性变换之间交替。但是我们得到了什么样的连续性?如果我们有一个L层深度网络,整体功能是否足够连续,以便它对初始条件(在前向传播期间)的敏感性不是太差?有关于此的定理吗?

如果你能指点我一些论文,我将不胜感激......例如,这似乎是相关的:Back Propagation is Sensitive to Initial Conditions,但我希望看到有关前向传播的结果。

0 个答案:

没有答案