我一直在尝试TensroFlow v2 beta,并且正在尝试tf.keras模型。
当我编译模型并选择优化器作为字符串'adam'
时。该模型可以正确训练:
model.compile(optimizer='adam', loss='categorical_crossentropy')
model.fit(x, y)
但是,当我尝试使用默认优化器tf.keras.optimizers.Adam()
时,就无法对其进行训练,并且每次迭代都会输出nan
损失。
adam = tf.keras.optimizers.Adam()
model.compile(optimizer=adam, loss='categorical_crossentropy')
model.fit(x, y)
不是应该将字符串'adam'
作为默认的adam优化程序,还是我遗漏了什么?我已经尝试了几种超参数(learning_rate
,beta_1
,beta_2
等),但似乎都没有用。这很重要,因为我可能不想一直使用默认的超参数。
任何人都可以解释这种行为吗?
答案 0 :(得分:2)
经过一番挖掘,看来当您键入字符串'adam'
时,它会调用另一个adam,它被称为adam_v2。
可以在here上找到它。
from tenforflow.python.keras.optimizer_v2.adam import Adam
adam = Adam()
model.compile(optimizer=adam, loss='categorical_crossentropy')
model.fit(x, y)
答案 1 :(得分:1)
据我所知,现在有2种不同的优化器实现。使用optimizer ='adam'似乎使用此实现:
https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/keras/optimizer_v2/adam.py
您可以显式导入为:
from tensorflow.python.keras.optimizer_v2 import adam as adam_v2