如何为float16初始化Tensorflow Adagrad Optimizer

时间:2018-10-19 02:42:21

标签: python tensorflow

在这个stackoverflow问题中,有人指出Adam优化器需要更改一些参数才能将其用于float16体系结构。

TensorFlow float16 support is broken

我想知道是否需要对Adagrad优化器进行任何类似的更改。 Adagrad没有像Adamoptimizer那样的epsilon arg,但是它具有学习率和初始累加器值。

0 个答案:

没有答案