我应该使用fp16张量来利用张量核心吗?

时间:2019-04-13 17:01:18

标签: python deep-learning pytorch hardware

我正在尝试在AWS上使用V100计算机。该官方网站表示,它为机器学习应用程序提供了100TFLOPS以上的速度,但似乎无法比我使用的1080ti更快。

最近,我发现一篇文章说张量核心在fp16张量上运行。

所以,我应该为张量指定dtype吗?

tensor_a = torch.tensor([1.,2.,3.], dtype=torch.float16)

代替:

tensor_a = torch.tensor([1.,2.,3])

0 个答案:

没有答案