标签: python tensorflow
在这个stackoverflow问题中,有人指出Adam优化器需要更改一些参数才能将其用于float16体系结构。
TensorFlow float16 support is broken
我想知道是否需要对Adagrad优化器进行任何类似的更改。 Adagrad没有像Adamoptimizer那样的epsilon arg,但是它具有学习率和初始累加器值。