我对使用GPU训练模型有一点了解。 我正在使用来自scikit-k-means的K-means来训练我的模型。 由于我的数据非常大,是否可以使用GPU训练此模型以减少计算时间? 或者你能否建议使用GPU电源的任何方法?
另一个问题是,如果我使用TensorFlow构建K-means,如本博客所示。
https://blog.altoros.com/using-k-means-clustering-in-tensorflow.html
它会使用GPU吗?
提前谢谢。
答案 0 :(得分:0)
检查您的GPU是否支持CUDA:https://developer.nvidia.com/cuda-gpus
到目前为止,Scikit-learn还没有支持CUDA。您可能想要使用TensorFlow:https://www.tensorflow.org/install/install_linux
我希望这会有所帮助。
答案 1 :(得分:0)
如果你有支持CUDA的GPU和Compute Capability 3.0或更高版本并且安装了GPU支持的Tensorflow版本,那么肯定会使用GPU进行培训。
有关运行支持GPU的TensorFlow的NVIDIA要求的补充信息,请检查以下链接: