我很幸运能够访问我大学的SLURM动力GPU集群。我一直试图让Tensorflow在集群节点中运行,但到目前为止我找不到任何文档。 (我在大学里与之交谈的每个人都在使用CPU节点之前或使用单个GPU节点运行它。
我在上一个问题here中找到了很多文档。不幸的是,它相当不完整。我发现的所有其他分布式示例,例如this,都依赖于显式指定参数服务器。
当我尝试使用SO问题中的代码运行它时,我似乎工作得很好,直到它无法连接到不存在的参数服务器,或者在调用server.join并且没有向sbatch提供打印输出时挂起outfile(我理解应该发生)。
简而言之,我的问题是如何在SLURM集群上启动Tensorflow?从sbatch阶段开始。这是我第一次在AWS上处理SPARK之外的分布式计算框架,我很想了解更多关于如何正确配置Tensorflow的信息。如何指定tf_hostlist中的哪个项目作为参数服务器?另外,我可以使用sbatch向每个worker发送稍微不同的命令,正如我在其他示例中看到的那样?