我有两个模型,一个用于使用tf训练的Task1,另一个用于训练pytorch的Task2。我想根据任务使用两者进行推断。我设法使用下面的代码实现了这一点。
问题是,有时数据加载器由于多处理而崩溃/挂起。我检查了数据加载器,发现这是问题。无需多处理即可正常工作。
有办法吗?在p.join()之后,我也尝试了p.terminate。它没有帮助。
if Task1:
p = multiprocessing.Process(target= pytorch_fn,
args=)
p.start()
p.join()
else:
p = multiprocessing.Process(target= tensorflow_fn,
args=)
p.start()
p.join()