函数逼近与张量流,sigmoid与relu6

时间:2017-09-11 02:39:13

标签: python machine-learning tensorflow neural-network

我试图在深度神经网络中使用张量流来实现sin()函数(实际上它可以近似任何东西),它目前它有2层,每层有10个和5个神经元,我尝试了许多优化器,而Adam似乎是最好的(也找到了推荐它的论文)

我的问题是,如果我使用relu6作为激活函数,通常建议我的aproximation看起来像这个https://imgur.com/a/pcsre,它有很多边缘。另一方面,如果我使用sigmoid,即使神经元较少,近似也会更柔和,但它看起来像https://imgur.com/a/gEVSs,我不知道它为什么会失败。

我已将功能映射到interval [0, 1],然后将其输入火车步骤。

对此有任何启发,非常感谢,提前感谢!

0 个答案:

没有答案