默认的Adam优化器在tf.keras中不起作用,但是字符串`adam`可以

时间:2019-07-10 19:16:10

标签: python tensorflow machine-learning keras deep-learning

我一直在尝试TensroFlow v2 beta,并且正在尝试tf.keras模型。

当我编译模型并选择优化器作为字符串'adam'时。该模型可以正确训练:

model.compile(optimizer='adam', loss='categorical_crossentropy')
model.fit(x, y)

但是,当我尝试使用默认优化器tf.keras.optimizers.Adam()时,就无法对其进行训练,并且每次迭代都会输出nan损失。

adam = tf.keras.optimizers.Adam()
model.compile(optimizer=adam, loss='categorical_crossentropy')
model.fit(x, y)

不是应该将字符串'adam'作为默认的adam优化程序,还是我遗漏了什么?我已经尝试了几种超参数(learning_ratebeta_1beta_2等),但似乎都没有用。这很重要,因为我可能不想一直使用默认的超参数。

任何人都可以解释这种行为吗?

2 个答案:

答案 0 :(得分:2)

经过一番挖掘,看来当您键入字符串'adam'时,它会调用另一个adam,它被称为adam_v2

可以在here上找到它。

from tenforflow.python.keras.optimizer_v2.adam import Adam

adam = Adam()

model.compile(optimizer=adam, loss='categorical_crossentropy')
model.fit(x, y)

答案 1 :(得分:1)

据我所知,现在有2种不同的优化器实现。使用optimizer ='adam'似乎使用此实现:

https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/keras/optimizer_v2/adam.py

您可以显式导入为:

from tensorflow.python.keras.optimizer_v2 import adam as adam_v2