现在我正在研究深度学习问题。我试图在matlab中使用卷积神经网络。但是文档说,我们需要NVIDIA显卡来进行gpu计算。
我的笔记本电脑配有英特尔高清显卡2600卡,用于图形处理。因此,有人可以建议我们在这种情况下使用的任何其他选项来运行深度学习算法和convnet算法。
我可以在没有GPU计算的情况下运行这些算法吗?会产生什么影响(时差)。
答案 0 :(得分:4)
使用集成的英特尔显卡,您无法取得多大成就。首先,大多数深度学习框架使用CUDA来实现GPU计算,而CUDA仅由NVidia GPU支持。有几次尝试将标准深度学习框架扩展到OpenCL,特别是Theano有一个incomplete OpenCL backend而Caffe已经被ported to OpenCL的AMD研究实验室所接受。但是,这些要么在此时不完整,要么没有积极维护。
另一个问题是表现。根据您的应用程序,您可能需要比笔记本电脑提供的GPU更好的GPU。使用配备NVidia Titans的多GPU机器来训练网络数天甚至数周的情况并不少见。
我的建议是购买专用机器进行深度学习计算(一台GPU机器刚刚发布的NVidia GTX 1080可以以标准笔记本电脑的价格购买)或租用Amazon EC2上的GPU实例。
答案 1 :(得分:0)
您可以将Google的Tensor处理单元与Google Colab结合使用,在那里您可以免费获得GPU,它们具有非常酷的云GPU technology