如何在Tensorflow中使用GPU进行大矩阵分解

时间:2019-03-25 01:26:25

标签: tensorflow gpu

我正在尝试使用GPU在Tensorflow中进行矩阵分解(或张量的塔克分解)。我有tensorflow-gpu,我的NVidia GPU有4GB RAM。我的问题是我的输入矩阵巨大,数百万行和数百万列,并且矩阵的大小在内存中超过5GB。所以每次Tensorflow都会给我一个内存不足(OOM)错误。 (如果我关闭GPU,则整个过程可以使用系统RAM在CPU中成功运行。当然,速度很慢。)

我对Tensorflow和NVidia CUDA lib进行了一些研究。 CUDA似乎具有“统一内存”机制,因此系统RAM和GPU RAM共享一个地址簿。尚未找到更多细节。

我想知道Tensorflow是否支持某种内存共享机制,以便我可以在系统RAM中生成输入吗? (因为我想使用GPU加速计算),GPU可以逐段进行计算。

0 个答案:

没有答案