我想进行有关对象检测的分布式培训。 首先,我通过简单地在命令中设置'TF_CONFIG'来运行文件'model_main.py',它可以平稳运行。这是进行分布式培训的正确方法吗? 但是这种方式似乎是异步培训。 为了进行同步训练,我将{RunConfig“配置为打击,如Distribution Strategy所述:
config = tf.estimator.RunConfig(train_distribute=tf.contrib.distribute.CollectiveAllReduceStrategy())
报告:
AttributeError:“模块”对象没有属性“ CollectiveAllReduceStrategy”。
tensorflow对象检测是否支持分发策略? 如果是,是否使用分发策略有什么区别? 如果没有,还有其他方法可以进行同步培训吗?
答案 0 :(得分:1)
您应该更新tensorflow版本> = 1.11