我在想,为什么在GAN的大多数模型中(至少在MNIST中),我看到,激活功能(用于鉴别器和发生器)是tanh? 不是ReLu效率更高吗? (我总是把它读作预测网络)
谢谢!
答案 0 :(得分:3)
来自DCGAN论文[Radford et al。 https://arxiv.org/pdf/1511.06434.pdf] ...
" ReLU激活(Nair& Hinton,2010)用于生成器,但输出除外 使用Tanh函数的图层。我们观察到使用有界激活允许模型 更快地学习以饱和并覆盖训练分布的色彩空间。内 鉴别器我们发现泄漏整流激活(Maas et al。,2013)(Xu et al。,2015)开始工作 好吧,尤其是更高分辨率的建模。这与原始的GAN纸相反 使用maxout激活(Goodfellow等,2013)。"
这可能是tanh的对称性在这里是一个优点,因为网络应该以对称的方式处理较暗的颜色和较浅的颜色。
答案 1 :(得分:2)