Int8(字节)操作如何对深度学习有用?

时间:2016-07-25 19:56:31

标签: nvidia deep-learning theano

Nvidia计划将int8操作的硬件支持添加到他们的新titan卡和目标深度学习社区。我试图了解它的有用性和什么类型的网络将从这个和什么阶段(培训/推理等)中受益。

我知道FP16而不是FP32应该对DL有用,但不确定int8如何做。有些研究可以用完整的FP32精度进行训练,然后将其四舍五入到一个字节 - 但这不会加速或减少训练的内存占用。

他们可能基于一些论文或研究做出了这个决定(实施int8的硬件加速)。这些是什么?

1 个答案:

答案 0 :(得分:0)

为了减少内存占用和计算开销,常见的方法(尤其是移动设备)是量化;然后会以整数形式发生。在这里阅读更多相关信息:

https://www.tensorflow.org/performance/quantization

相关问题