如何使用tf.contrib.keras.optimizers.Adamax?

时间:2017-06-18 12:42:52

标签: tensorflow

我在tensorflow 1.2中使用了tf.AdamOptimizer:

train_opt = tf.train.AdamOptimizer(learning_rate=0.0004).minimize(error)

现在我想将其替换为新的tf.contrib.keras.optimizers

train_opt = tf.contrib.keras.optimizers.Adamax(lr=0.0004)

但我怎样才能最大限度地减少错误? (添加.minimize(错误)不起作用)

1 个答案:

答案 0 :(得分:1)

使用:

train_opt = 
    tf.contrib.keras.optimizers.Adamax().get_updates(loss=cost,constraints=[], params=train_params)

cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels = y_, logits = y))

train_params = network.all_params