如何使用Google Mobile Vision在Swift中实现面部跟踪?

时间:2018-01-03 14:21:11

标签: ios swift google-vision

我正在尝试使用Google Mobile Vision在我的应用中实现面部跟踪。最终目标是在用户眨眼时运行一个功能。

我查看了Google的文档,但发现它是在Objective-C中(我对Objective-C没有经验)。

很抱歉,我没有任何代码。我曾尝试使用在线Obj-C到Swift转换器,但它不起作用(大约有100个错误)。

有人可以告诉我如何在Swift 4中的应用程序中实现面部跟踪吗?

1 个答案:

答案 0 :(得分:0)

您可以选择将Google Mobile Vision的Objective-C源集成到Swift项目中。

  1. 使用Objective-C桥:
    Apple文档 - “Importing Objective-C into Swift”可以帮助您在快速项目中集成Objective C代码

  2. 使用Cocoa Pod:
    Google Mobile VisionCocoaPods文件可以帮助您,如何使用pod(可可豆荚)整合它
    将pod GoogleMobileVision/FaceDetector添加到Podfile。


  3. 以下Google教程将为您提供帮助。

    您的要求过于宽泛,您可能需要在Swift中使用完整的工作样本。从这些教程开始,让我知道你是否卡在任何地方。我肯定会帮助你,但无法为你提供完整的工作源代码。