我对神经网络的计算能力很感兴趣。人们普遍认为,递归神经网络是图灵完备的。现在我正在寻找一些证明这一点的论文。
到目前为止我发现了:
使用神经网络计算可计算性,Hava T. Siegelmann和Eduardo D. Sontag,1991
我认为从理论的角度来看这只是有趣的,因为它需要具有无限精确度的神经元活动(以某种方式将状态编码为有理数)。
S上。 Franklin和M. Garzon,神经可计算性
这需要无限数量的神经元,而且看起来并不那么实用。
(注意another question of mine试图指出这种理论结果与实践之间的这种问题。)
我主要搜索的是一些真正可以执行某些代码的神经网络,我也可以在实践中模拟和测试。当然,在实践中,他们会有某种有限的记忆。
有人知道这样的事吗?
答案 0 :(得分:1)
答案 1 :(得分:1)
有点偏离主题,但在您的搜索中可能有用(听起来像是硕士/博士论文)。根据我使用学习算法进行分类,分割等操作的经验,由于其强大的数学基础,贝叶斯学习优于所有形式的神经网络,遗传算法和其他漂亮的探测算法。
在我的书中,数学基础使得一种技术优于特殊方法。例如,贝叶斯网络的结果可以在数学上解释为概率(如果您愿意,甚至可以使用p值),而神经网络通常是猜测。不幸的是,贝叶斯统计数据听起来并不像“神经网络”那样性感,尽管它可以说是更有用和更有根据。
我很想看到有人在学术环境中正式解决这个问题。