标签: tensorflow cuda gpu pytorch
我有一台具有多个GPU的Linux机器,并且我在不同的GPU上运行不同的实例(一个基于PyTorch,另一个基于TensorFlow)。这是安全的做法吗?我听到同事谈论过GPU之间的随机数据共享(这会破坏我在做的事情),但是我找不到关于该主题的任何信息。