标签: keras regularized
我理解正则化通常会将k * w ^ 2添加到损失以惩罚大权重。但在Keras中有两个正则化参数 - weight_regularizer和activity_ regularizer。有什么区别?
答案 0 :(得分:5)
不同之处在于activity_regularizer应用于中间层的输出,它会影响大层输出。
activity_regularizer