在电话硬件上运行ML模型的可行性?

时间:2019-10-31 04:21:23

标签: android ios tensorflow tensorflow-lite

我已经训练了一个TensorFlow模型,该模型每次动作都需要花费我的RTX2080几秒钟的时间(初始化模型需要20-30秒的时间)。

我一直在考虑将其转换为在tensorflow lite上运行的iOS / Android应用程序,但除了将模型转换为tensorflow lite模型以及其他所有技术挑战之外,

我想知道即使在带有内置GPU的相当现代的手机上在手机硬件上运行此功能的可行性,对于实际应用而言,这仍然可能太慢吗?

任何使用tensorflow lite构建iOS / Android应用程序的人都可以在手机上负责计算性能和其他实际注意事项吗?

例如,如果应用程序使用量很大,则由我自己的服务器在AWS上处理请求的唯一其他选择将变成一项重大开支。

1 个答案:

答案 0 :(得分:0)

我已经使用TensorFlow lite迅速创建了一个图像识别应用程序,但没有发现任何性能问题。预测持续进行3到5秒之间的任何时间,我个人认为还不错。因此,我建议您使用TF模型继续开发您的应用。谢谢!