标签: python keras deep-learning activation-function
事实证明,与CIFAR-10,CIFAR-100和NDSB数据集中的ReLU相比,随机ReLU和参数ReLU的性能更好。尽管Keras提供了有关如何使用PReLU的文档,但我找不到RReLU的文档。有人可以简要介绍一下Keras中随机ReLU激活的用法吗?
下面是arXiv:1505.00853v2中对RReLU的描述。