标签: python tensorflow deep-learning rnn multi-gpu
我有一个复杂的 rnn 模型,用张量流编写,用于 multigpu 训练。当我运行 tf 代码时,图形构建将在合理的时间内完成。
但是,当我调用location.title来运行图形时,optimiser.compute_gradients第一步需要花费很多时间,但是后续步骤会更快(快10倍左右)。我的数据集中的每个批次都具有相同的形状。
location.title
为什么会这样?
谢谢