tf.train.AdamOptimizer的所有参数:
(
learning_rate=0.001,
beta1=0.9,
beta2=0.999,
epsilon=1e-08,
use_locking=False,
name='Adam'
)
答案 0 :(得分:0)
如果未命名该参数,则会按顺序分配值,因此学习率设置为1E-4。如果调用tf.train.AdamOptimizer(1E-4,0.5),则beta1将被分配为0.5,依此类推。您可以通过命名参数来更改顺序,例如(tf.train.AdamOptimizer(beta1 = 0.5))。