使用Google Colab中的所有可用RAM后,您的会话崩溃了

时间:2019-05-30 20:29:02

标签: python-2.7 pytorch google-colaboratory torchvision

我正在尝试让它在google colab https://github.com/oawiles/X2Face/blob/master/UnwrapMosaic/Face2Face_UnwrapMosaic.ipynb中运行

我能够使它运行一次并显示结果,但是从那以后,在此单元中使用了所有可用的RAM之后,我一直使您的会话崩溃

    BASE_MODEL = '/scratch/shared/slow/ow/eccv/2018/release_models/' # Change to your path
state_dict = torch.load(BASE_MODEL + 'x2face_model.pth')

model = UnwrappedFaceWeightedAverage(output_num_channels=2, input_num_channels=3, inner_nc=128)
model.load_state_dict(state_dict['state_dict'])
model = model.cuda()

model = model.eval()

我不确定这是否是colab问题

这是日志

warn("IPython.utils.traitlets has moved to a top-level traitlets package.")
/usr/local/lib/python2.7/dist-packages/IPython/utils/traitlets.py:5: UserWarning: IPython.utils.traitlets has moved to a top-level traitlets package.

2 个答案:

答案 0 :(得分:1)

尝试更改设置,

转到运行时->更改运行时类型->硬件加速器->选择选项GPU或TPU

我认为这可能会有所帮助。

答案 1 :(得分:0)

我的经验是转换到CPU colab版本,运行代码

然后切换到GPU colab版本

这些操作完成后,代码运行平稳。