SyntaxNet处理大量句子,GPU会提高性能吗?

时间:2017-04-22 10:31:34

标签: syntax tensorflow nlp gpu

我在原始文本中有一个大型句子数据集(即~5.000.000),我想使用已经训练过英语的SyntaxNet进行处理。也就是说,我只想使用SyntaxNet模型处理句子,我不想训练任何新模型。

使用GPU设置处理环境会对性能产生任何影响吗?

据我所知,大多数繁重的CPU操作都在估算网络/模型的参数和权重,一旦估算出来,应用训练有素的网络应该比训练更快。

尽管如此,我之前从未使用过Tensorflow,而且我不知道在将已经训练过的模型应用于数据时是否使用了GPU。

此外,是否有人知道将SyntaxNet设置为守护程序或Web服务的简单方法,以便轻松进行批处理?

1 个答案:

答案 0 :(得分:3)

您仍然需要在图表上执行大量张量操作来预测某些事情。因此GPU仍然可以为推理提供性能改进。看看这个nvidia paper,他们没有在TF上测试他们的东西,但它仍然是相关的:

  

我们的结果表明GPU提供了最先进的推理   性能和能效,使其成为首选平台   对于任何想要在现场部署训练有素的神经网络的人。在   特别是,Titan X的输出高出5.3到6.7倍   性能比16核Xeon E5 CPU高出3.6到4.4   提高能源效率。

关于如何部署模型,请查看TF serving