Keras中的He normal和Xavier普通初始化器之间有什么区别?两者似乎都基于输入数据的方差来初始化权重。对两者之间的区别有任何直观的解释吗?
答案 0 :(得分:13)
请参阅this discussion on Stats.SE:
总之,机器学习从业者的主要区别如下:
- 对于使用ReLu激活的图层,他的初始化效果更好。
- Xavier初始化对于使用sigmoid激活的图层效果更好。
答案 1 :(得分:0)
重量(内核)初始化参数:
应用...
keras.layers.Dense(10, activation="relu", kernel_initializer="he_normal")
这里是 Xavier Glorot,Yoshua Bengio 的研究论文的链接,以防您想要了解重量初始化背后的重要性和数学知识,“了解训练深度前馈神经网络的难度”。 http://proceedings.mlr.press/v9/glorot10a.html