标签: python deep-learning backpropagation relu
有关于Relu向后传播的python代码。并且代码就像dx=(x>0)*dout,x>0部分起什么作用?谁能向我解释这一行代码?
dx=(x>0)*dout
x>0
答案 0 :(得分:1)
Relu函数定义为:f(x) = max(0,x) 这意味着如果x<=0,然后是f(x)=0,否则是f(x)=x。
f(x) = max(0,x)
x<=0
f(x)=0
f(x)=x
因此,如果x<=0,dx=0,否则为dx=dout。
dx=0
dx=dout