为多个任务运行ML模型的有效方法

时间:2020-02-21 06:30:50

标签: python

我正在其中具有不同类型任务的脚本中运行scheduler。这些任务正在使用经过训练的ML模型。这样我就设法在主脚本中加载了一次模型。然后将其传递给任务运行。

但是它有点变得复杂并且难以维护。所以我想,如果我使用flask在本地主机中运行另一个类似于API的脚本并在那里运行模型,该怎么办?然后,只需在我需要使用模型的任何时间和任何地方(在本地计算机中)向其发布请求即可。

这是一种整洁,专业的解决方案吗?

我不知道SO是否是问这个问题的合适地点,但我无法在其他地方弄清楚。谢谢。

0 个答案:

没有答案