这不是一个不合理的问题。 Nvidia和ATI架构不同,足以让某些任务(比如比特币挖掘)ATI比Nvidia好得多。
神经网络相关处理也是如此。我试图在这样的背景下找到2个GPU品牌的比较,但未能这样做。
我的期望是GPU中神经网络处理最重要的是核心数量。这是对的吗?
答案 0 :(得分:8)
几乎所有使用GPU的ML软件都可以(最好)使用CUDA,因此Nvidia的GPU更受欢迎。
看看this discussion。并且,有一篇关于which GPU to get for deep learning(现代神经网络)的文章。相关报价:
那么我应该得到什么样的GPU? NVIDIA还是AMD?
NVIDIA的标准库使得在CUDA中建立第一个深度学习库非常容易,而AMD的OpenCL没有这样强大的标准库。目前,AMD卡还没有很好的深度学习库 - 所以NVIDIA就是这样。即使将来有一些OpenCL库可供使用,我也会坚持使用NVIDIA:事实上,GPU计算或GPGPU社区对于CUDA来说非常大,而对于OpenCL来说则相当小。因此,在CUDA社区,您可以随时获得良好的开源解决方案和可靠的编程建议。
NVIDIA摇滚的原因是他们投入了大量精力支持科学计算(例如,见cuDNN。这意味着他们承认该领域并试图转向这些应用程序。)
因此,NVIDIA拥有大量GPU。你应该得到哪一个?
简短回答,基于上面引用的文章(我强烈建议阅读!):GTX 980。
实际上,核心数量并不重要。 GPU没有大量内存,因此与主机(您的RAM)的通信是不可避免的。所以重要的是板载内存的数量(以便您可以加载和处理更多)和带宽(这样您就不会花费大量时间等待。)