我有一个使用tensorflow构建并与Django项目集成的对象检测模型。当前发生的情况是,每当对Django API发出请求时,都会创建一个tf会话,并在检测完成后将其关闭。是否可以使用所需的推理图启动Django服务器和tensorflow会话以减少对象检测时间?
答案 0 :(得分:1)
一种解决方案是使用模块中的会话抽象逻辑以运行推理。在此模块中,会话和图形将一次定义为全局变量,并使用函数run_inference
之类的接口由您的视图或任何对象透明地访问。
如果您需要更好地控制图形和/或会话的生命周期,可以考虑添加诸如reload_graph
等功能,或在模块中实现该功能,例如使用专门用于管理图形和/或会话的类。张量流对象的生命周期以及运行推断。
在我看来,这是最好的解决方案。这样一来,您还可以拥有更强大的工作流程,并拥有更多控制权,例如在您要使用多线程并希望如何运行推理代码方面更安全。