标签: tensorflow keras gpu nvidia tensorflow-gpu
我正在尝试在一个文本语料库(~7M)上训练一个LSTM网络,但是它每个时期花费的时间非常长,即使它是在Nvidia Tesla p100上。
我的模型结构是2个LSTM层,每个层有256个神经元,散布着Dropout和最终完全连接的层。我将它分成64个字符块句子。
出现这种疯狂缓慢表现的原因是什么?每个时代差不多7.5小时!可能是由于CPU计算警告?我认为这不会导致GPU计算出现问题。