标签: python deep-learning pytorch hardware
我正在尝试在AWS上使用V100计算机。该官方网站表示,它为机器学习应用程序提供了100TFLOPS以上的速度,但似乎无法比我使用的1080ti更快。
最近,我发现一篇文章说张量核心在fp16张量上运行。
所以,我应该为张量指定dtype吗?
tensor_a = torch.tensor([1.,2.,3.], dtype=torch.float16)
代替:
tensor_a = torch.tensor([1.,2.,3])?
tensor_a = torch.tensor([1.,2.,3])