我正在PyTorch中训练3D暹罗网络。当我从iPython(v7.15.0)终端运行代码时,GPU RAM使用量最大达到1739M:
当我将相同的代码复制到Jupyter笔记本中(在Jupyter Lab v2.1.5中)时,GPU RAM使用量为10209M:
Jupyter Lab是在同一Python虚拟环境中从终端运行的。
首先,我不明白为什么在Jupyter Lab中运行脚本会导致GPU RAM使用率增加近6倍。
第二个相关的问题是,是否有Jupyter Lab以某种模式运行,该模式使用1739M范围内的GPU RAM?我喜欢在代码和输出周围拥有所有“文档”的功能。
Python版本3.6.9。
答案 0 :(得分:0)
好吧,现在我意识到当我运行两者时有什么区别。
我在机器上有两个GPU,一个Quadro M2000用于驱动视频和Titan XP。当我在命令行上运行JupyterLab时,我以jupyter lab
的身份运行它,但是当我运行iPython时,我以CUDA_VISIBLE_DEVICES=0 ipython --pylab
的身份运行它。如果没有CUDA_VISIBILE_DEVICES,它会向我发出有关不匹配GPU的警告。当我在iPython终端中运行时,我之前看到了警告,但是当我运行JupyterLab时却没有看到它们。
因此,Titan XP的RAM使用量会跃升至10G + RAM仍然很奇怪。