关于keras示例pretrained_word_embeddings的问题

时间:2017-02-24 07:59:26

标签: machine-learning tensorflow neural-network keras conv-neural-network

我有几个关于Keras示例pretrained_word_embeddings的问题,以提高对其工作原理的理解。

  1. 在此模型中使用dropout图层是否合理?

  2. 上次MaxPooling1D图层必须每次覆盖所有输出形状?在原始模型中,最后一个转换层输出为35,我们将maxpool设置为相同的35值。

  3. 我是否正确,如果说增加值128(内核数量)会提高准确度?

  4. 添加额外的转换层以提高准确度是否有意义?即使它会减少模型训练阶段。

  5. 谢谢!

0 个答案:

没有答案