我正在使用docker启动隔离的应用程序。我的应用程序将使用CUDA库进行GPGPU计算。我正在考虑在其上安装cuda构建一个图像,但这会使它太大。我不确定CUDA显示驱动程序安装是否能在docker镜像上成功运行。
更好的方法是在机器上与容器共享CUDA库,有没有办法做到这一点?
谢谢你, 普拉迪普。
答案 0 :(得分:3)
我会从使用
开始docker run --privileged ubuntu -ti --rm bash
--privileged是一个大锤子,但给你一个充满力量的容器:)
答案 1 :(得分:1)
如果您可以将驱动程序作为卷安装在主机上,那么可能可以通过使用docker run -v hostdir:containerdir:rw
挂载来直接从容器内与它通信(请参阅{{ 3}})
如果您没有将设备安装在容器外部,那么我怀疑直接与您的图形卡通信,即使通过共享库,也无法使用标准Docker配置,因为docker中的默认LXC配置排除了{{ 1}}出于安全性和可移植性的原因。
请参阅run docs文件,了解默认情况下删除的功能列表。