Thinbug
News
跳过导入mxnet上的CUDA库加载
时间:2019-03-18 15:33:50
标签:
python
mxnet
当仅打算在CPU上进行推理时,是否可以使“ import mxnet”跳过加载CUDA库?
上下文:
MXNet已安装CUDA支持,并且模型训练通常在GPU上运行
但是,推断可以在没有GPU的许多节点上并行运行,最好只在CPU上使用相同的MXNet构建,但是某些库在非GPU节点上不可用。
0 个答案:
没有答案
相关问题
CUDA示例实用程序库
从http://mxnet.io/tutorials/python/char_lstm.html导入lstm时出错
为什么多端口模型无法导入C ++?
加载共享库时出错:libcudart.so
Google Colab上缺少libnvrtc.so.8.0(mxnet需要)
OSError:libcudart.so.9.2:无法打开共享对象文件:没有这样的文件或目录
在Rasbian上加载库
跳过导入mxnet上的CUDA库加载
Gluon代码在GPU上的速度不比在CPU上快多少
MXnet:加载检查站和火车
最新问题
我写了这段代码,但我无法理解我的错误
我无法从一个代码实例的列表中删除 None 值,但我可以在另一个实例中。为什么它适用于一个细分市场而不适用于另一个细分市场?
是否有可能使 loadstring 不可能等于打印?卢阿
java中的random.expovariate()
Appscript 通过会议在 Google 日历中发送电子邮件和创建活动
为什么我的 Onclick 箭头功能在 React 中不起作用?
在此代码中是否有使用“this”的替代方法?
在 SQL Server 和 PostgreSQL 上查询,我如何从第一个表获得第二个表的可视化
每千个数字得到
更新了城市边界 KML 文件的来源?