标签: multiprocessing pytorch
在PyTorch nn.Module中,有一种方法share_memory()用于共享实现nn.Module接口的对象,这使模型可以在多个进程之间进行更新。这就是所谓的“ Hogwild”。如果可以通过PyTorch神经网络模型完成此操作,为什么也不能对其他对象也实现它,而又不需要使用队列在进程之间传递数据?
share_memory()
nn.Module
例如,我想要一个可以在每个过程中增加的全局情节计数器,为什么不能使用与神经网络模型相同的方法共享该对象?