R Keras:在输入层和隐藏层上都应用dropout正则化

时间:2019-11-17 21:42:18

标签: r keras neural-network dropout

我正在R中学习Keras,并且想在输入层上应用辍学正则化,因为它很大(20000个变量),并且在中间层(100个神经元)也是如此。我正在部署Keras进行回归。从官方documentation到下面的模型构建:

model <- keras_model_sequential() %>%
         layer_dense(units = 100, activation = "relu", input_shape = 20000) %>%
         layer_dropout(0.6) %>%
         layer_dense(units = 1)

我应该如何修改代码以实现自己的目标?

1 个答案:

答案 0 :(得分:0)

我找到了解决方案,所以我发布了一个答案,以防其他人遇到相同的问题。

self.env['model2name'].search([('name', '=', record2name)])