在explanation on activation under Arguments中,它显示为
“线性”激活:a(x)= x。
令人困惑。线性激活不应该像wx+b
一样(如果use_bias = True)吗?
答案 0 :(得分:0)
否,Dense
层本身会计算y = a(wx + b)
,而activation
参数的作用是更改此计算中的函数a
,以具有不同的非线性行为,但是如果您需要线性行为,则“取消” a
的唯一方法是使用线性函数a(x) = x
,因此无需修改预激活值({{1 }}。