标签: python tensorflow distributed
我有一个TensorFlow集群,可以对我的模型进行分布式培训。 我使用tf.estimator,tf.estimator.train_and_evaluate以及已配置的TF_CONFIG环境变量实现了它。
TF_CONFIG
虽然我可以使用evaluator任务将评估放在任意计算机上,但评估仍然只发生在计算机上。 因此,我的培训非常快,因为它发生在几台机器上,而评估则拖延了。
evaluator
是否可以通过培训在多台机器上分发评估?
非常感谢您的回答。