如何运行预测引擎作为服务

时间:2015-09-03 06:15:55

标签: web-services logging service predictionio

我已成功实施了predictionIO引擎模板。我可以使用

部署引擎
$pio deploy -- --driver-memory xG

但我如何运行推荐(或任何其他)engine as a service?如果发生某些问题,我想将所有条目记录到指定用于参考的文件中。

此外,还提到对于small deployments,最好不要使用分布式设置。我有一个json格式的文本分类模板数据集大小约2MB,它需要大约8GB的内存供引擎训练和部署。这适合small deployment类别吗?

1 个答案:

答案 0 :(得分:0)

pio deploy 将引擎作为服务运行。记录转到pio.log,您可以添加自己的自定义日志记录。我要说只要你有超过8GB的RAM备用,坚持使用单机即“小部署”。