我已经在g2.8xlarge上创建了一个DLAMI(深度学习AMI(亚马逊Linux)版本8.0 - ami-9109beee)并安装了jupyter笔记本来创建一个简单的Keras LSTM。当我尝试使用multi_gpu_model函数将我的Keras模型转换为GPU模型时,我看到记录了以下错误:
忽略可见的gpu设备(设备:0,名称:GRID K520,pci总线ID: 0000:00:03.0,计算能力:3.0)具有Cuda计算能力 3.0。所需的最低Cuda能力为3.5。
我尝试重新安装tensorflow-gpu无济于事。有没有办法调整这个AMI的兼容性?
答案 0 :(得分:2)
通过卸载,然后通过AMI提供的conda环境重新安装tensorflow-gpu解决了这个问题。
答案 1 :(得分:0)
通过pip或类似方法安装的TensorFlow二进制文件仅用于支持CUDA计算能力3.5,但TensorFlow确实支持3.0的计算能力。
不幸的是,获得支持计算能力3.0的TensorFlow安装的唯一方法是building from source。