我试图在深度神经网络中使用张量流来实现sin()
函数(实际上它可以近似任何东西),它目前它有2层,每层有10个和5个神经元,我尝试了许多优化器,而Adam似乎是最好的(也找到了推荐它的论文)
我的问题是,如果我使用relu6作为激活函数,通常建议我的aproximation看起来像这个https://imgur.com/a/pcsre,它有很多边缘。另一方面,如果我使用sigmoid,即使神经元较少,近似也会更柔和,但它看起来像https://imgur.com/a/gEVSs,我不知道它为什么会失败。
我已将功能映射到interval [0, 1]
,然后将其输入火车步骤。
对此有任何启发,非常感谢,提前感谢!