标签: neural-network
我正在尝试运行反向传播来学习一个简单的函数。我不确定什么标准决定了隐藏层的数量等等。例如,对于像f(x)= x ^ 4 - 15x ^ 2的函数; -5< = x< = + 5,我猜测每个x值都将用作输入(如果我错了请纠正我)在错误传播回来之前找到输出。但是什么决定了是否应该存在任何隐藏层?