我目前有一个使用flask,gunicorn和nginx运行的Web api,该Web api称为我的tensorflow模型服务端口。当在第一次完成之前多次调用Web API时,tensorflow模型失败将给出一个空请求。
处理此问题的最佳方法是什么?我的Web API当前已经位于gunicorn和nginx后面,但是从api到tensorflow模型的调用似乎是问题所在。我是否也应该将其放在gunicorn / nginx负载均衡器后面?
谢谢
答案 0 :(得分:1)
您有几种选择。