我尝试了seq2seq中提供的seq2seq pytorch实现。在分析评估(evaluate.py)代码之后,需要更长时间的代码是decode_minibatch方法
-webkit-transform: skew(-20deg);
-moz-transform: skew(-20deg);
-o-transform: skew(-20deg);
在GPU上训练模型并在CPU模式下加载模型进行推理。但不幸的是,每个句子似乎需要大约10秒。在pytorch上预计会有慢预测吗?
任何修复,建议加快将非常感激。感谢。