CNTK TransferLearning示例 - Geforce 960M上的内存不足

时间:2018-03-21 23:49:28

标签: deep-learning gpu cntk

我的Nvidia Geforce 960M拥有2 GB的专用显存。但是当我尝试运行示例( CNTK-Samples-2-4 \ Examples \ Image \ TransferLearning )时,我收到以下CUDA内存分配错误:

  

回溯(最近一次呼叫最后):文件" TransferLearning.py",行   217,在       max_epochs,freeze = freeze_weights)文件" TransferLearning.py",第130行,在train_model中       trainer.train_minibatch(数据)#用它更新模型文件   " C:\用户\戴尔\ Anaconda3 \ lib中\站点包\ cntk \列车\ trainer.py&#34 ;,   第181行,在train_minibatch中       参数,设备)文件" C:\ Users \ Dell \ Anaconda3 \ lib \ site-packages \ cntk \ cntk_py.py",line   2975,在train_minibatch_overload_for_minibatchdata中       return _cntk_py.Trainer_train_minibatch_overload_for_minibatchdata(self,* args)RuntimeError:CUDA失败2:内存不足; GPU = 0; hostname = DESKTOP-IA3HLGI; expr = cudaMalloc((void **)& deviceBufferPtr,   sizeof(AllocatedElemType)* AsMultipleOf(numElements,2))[CALL STACK]
      > Microsoft :: MSR :: CNTK :: CudaTimer ::停止
       - Microsoft :: MSR :: CNTK :: CudaTimer :: Stop(x2)
       - Microsoft :: MSR :: CNTK :: GPUMatrix :: Resize
       - Microsoft :: MSR :: CNTK :: Matrix :: Resize
       - std :: enable_shared_from_this :: enable_shared_from_this
       - std :: enable_shared_from_this :: shared_from_this(x3)
       - CNTK :: Internal :: UseSparseGradientAggregationInDataParallelSGD
       - CNTK :: CreateTrainer
       - CNTK :: Trainer :: TotalNumberOfUnitsSeen
       - CNTK :: Trainer :: TrainMinibatch(x2)
       - PyInit__cntk_py(x2)

有没有办法使用GPU运行此示例? CUDA / CNTK是否有内存配置?我是否需要更改图像尺寸和/或批量大小?

1 个答案:

答案 0 :(得分:0)

感谢NiallJG。改变批量大小就可以了。我试过mb_size = 30并且它有效!