标签: machine-learning tensorflow neural-network keras conv-neural-network
我有几个关于Keras示例pretrained_word_embeddings的问题,以提高对其工作原理的理解。
在此模型中使用dropout图层是否合理?
dropout
上次MaxPooling1D图层必须每次覆盖所有输出形状?在原始模型中,最后一个转换层输出为35,我们将maxpool设置为相同的35值。
MaxPooling1D
我是否正确,如果说增加值128(内核数量)会提高准确度?
添加额外的转换层以提高准确度是否有意义?即使它会减少模型训练阶段。
谢谢!