在Tensorflow中使用GPU内核进行并行计算

时间:2020-04-06 09:21:12

标签: python tensorflow

我正在为对象检测系统开发tensorflow-gpu和pyqt5。

我已经开发了一个基于神经网络模型的项目,该模型经过训练 通过tensorflow,它很好,但是我需要加快检测速度。

我的GPU是GTX 1060,CPU是Corei7。

如何使用CUDA内核划分计算量?

我搜索了很多文章,并在其中多次询问 *堆栈**溢出*,但没有响应。

如何通过类似的库将tensorflow-gpu与CUDA内核一起编程 是PYCUDA还是numba或CUPY?

我以几种方式提出了这个问题,但我正在寻找一种使用CUDA进行GPU内核编程的正确方法(GTX1060具有1280个CUDA内核,而Corei7具有8个内核,并且通过对GPU进行计算,程序可以在大规模)

1 个答案:

答案 0 :(得分:1)

有关安装tensorflow-gpu的信息,请参见here。 在脚本中,如果可用,tensorflow会自动使用GPU,但是您可以检查this以获得更多信息,以检查可用核的数量或手动选择一些核等。