我看过几篇文章说我不应该在卷积层上使用dropout,而是应该使用批处理规范化,所以我想通过将所有批处理规范化层替换为dropout层来试验我的模型,以查看dropout是否真的使我的表现更差。
我的新模型具有以下结构:(Conv1D,Dropout,ReLU,MaxPooling)重复6次,Conv1D,Dropout,ReLU,Dense,Softmax。我尝试了0.1、0.2、0.3、0.4、0.5的辍学率。我的新模型的性能只有〜25%,比我的原始模型差很多,甚至比预测主导类的性能要差(〜40%)。
我想知道性能上的巨大差异是否实际上是用辍学替换批处理规范化的结果。还是我对我应该如何使用辍学的误解。
答案 0 :(得分:0)
要获得有关如何使用批处理规范和辍学的直觉,您应该首先了解这些层的作用:
您所做的是将归一化层替换为会增加信息流噪声的层,这当然会导致准确性急剧下降。
我对您的建议是使用批处理规范,就像在您的第一个设置中一样,如果您想尝试辍学,请在激活功能应用于上一层后添加。通常,辍学用于使很容易过度拟合的致密层规则化。试试这个: