标签: python tensorflow hpc distributed-tensorflow
我正在尝试通过重采样来评估分类器,因此我想使用数据集的不同子集多次运行模型。有没有一种方法可以并行运行多个tensorflow会话,以使所有会话都运行相同的模型,但同时使用不同的数据集-每个会话应独立于另一个-吗?我有一个可用的HPC群集,因此有许多可用的节点。我知道我可以使用分布式tensorflow在任何设备上打开会话,但是问题是如何使它们全部在不同的机器上并行运行?