使用GPU训练模型

时间:2017-02-01 07:22:21

标签: python tensorflow scikit-learn gpu

我对使用GPU训练模型有一点了解。 我正在使用来自scikit-k-means的K-means来训练我的模型。 由于我的数据非常大,是否可以使用GPU训练此模型以减少计算时间? 或者你能否建议使用GPU电源的任何方法?

另一个问题是,如果我使用TensorFlow构建K-means,如本博客所示。

https://blog.altoros.com/using-k-means-clustering-in-tensorflow.html

它会使用GPU吗?

提前谢谢。

2 个答案:

答案 0 :(得分:0)

检查您的GPU是否支持CUDA:https://developer.nvidia.com/cuda-gpus

到目前为止,Scikit-learn还没有支持CUDA。您可能想要使用TensorFlow:https://www.tensorflow.org/install/install_linux

我希望这会有所帮助。

答案 1 :(得分:0)

如果你有支持CUDA的GPU和Compute Capability 3.0或更高版本并且安装了GPU支持的Tensorflow版本,那么肯定会使用GPU进行培训。

有关运行支持GPU的TensorFlow的NVIDIA要求的补充信息,请检查以下链接:

  

https://www.tensorflow.org/install/install_linux#nvidia_requirements_to_run_tensorflow_with_gpu_support

相关问题