标签: python tensorflow inference
我正在尝试优化Tacotron的推理this实现。冻结和/或优化后,评估一个句子大约需要30秒,而不是“优化”之前需要2-3秒。
我正在关注this(或任何类似的指南)。只需使用convert_variables_to_constants函数冻结图形,然后使用optimize_for_inference_lib.optimize_for_inference进行优化即可。
convert_variables_to_constants
optimize_for_inference_lib.optimize_for_inference
要运行评估,我要导入图形并调用sess.run()。 “优化”后,此调用的速度大大降低了
sess.run()
我在做什么错了?