我已经训练了一个TensorFlow模型,该模型每次动作都需要花费我的RTX2080几秒钟的时间(初始化模型需要20-30秒的时间)。
我一直在考虑将其转换为在tensorflow lite上运行的iOS / Android应用程序,但除了将模型转换为tensorflow lite模型以及其他所有技术挑战之外,
我想知道即使在带有内置GPU的相当现代的手机上在手机硬件上运行此功能的可行性,对于实际应用而言,这仍然可能太慢吗?
任何使用tensorflow lite构建iOS / Android应用程序的人都可以在手机上负责计算性能和其他实际注意事项吗?
例如,如果应用程序使用量很大,则由我自己的服务器在AWS上处理请求的唯一其他选择将变成一项重大开支。
答案 0 :(得分:0)
我已经使用TensorFlow lite迅速创建了一个图像识别应用程序,但没有发现任何性能问题。预测持续进行3到5秒之间的任何时间,我个人认为还不错。因此,我建议您使用TF模型继续开发您的应用。谢谢!