标签: python tensorflow parallel-processing gpu
我有许多时间序列序列(超过500个),对于此特定任务,必须在每个序列上训练一个单独的LSTM,以进行将来的预测。顺序训练所有500个模型的效率非常低,尤其是因为每个模型的批处理大小为1,GPU利用率约为30%。
有没有办法在单个GPU上同时并行初始化和训练多个TensorFlow模型?这个想法类似于在批处理数据上训练单个模型,不同之处在于,批处理中的每个元素都使用不同的模型。