正在关注此处的精彩文章:
https://pgaleone.eu/tensorflow/tf.function/2019/05/10/dissecting-tf-function-part-3/
,但我想知道是否还有其他途径可以加快针对tensorflow 2.0模型的推理。
我注意到在一次简单模型的调用中有很多开销。例如,调用单行预测可能为0.5毫秒,而2500行预测约为50毫秒。因此,使用2500x数据只需要100倍的时间。
是否有一条从cython或仅使用RT调用它们的好方法?这是一个很小的网络,在CPU上应该很快。