我正在尝试使用Google Mobile Vision在我的应用中实现面部跟踪。最终目标是在用户眨眼时运行一个功能。
我查看了Google的文档,但发现它是在Objective-C中(我对Objective-C没有经验)。
很抱歉,我没有任何代码。我曾尝试使用在线Obj-C到Swift转换器,但它不起作用(大约有100个错误)。
有人可以告诉我如何在Swift 4中的应用程序中实现面部跟踪吗?
答案 0 :(得分:0)
您可以选择将Google Mobile Vision的Objective-C源集成到Swift项目中。
使用Objective-C桥:
Apple文档 - “Importing Objective-C into Swift”可以帮助您在快速项目中集成Objective C代码
使用Cocoa Pod:
Google Mobile Vision和CocoaPods文件可以帮助您,如何使用pod(可可豆荚)整合它
将pod GoogleMobileVision/FaceDetector
添加到Podfile。
以下Google教程将为您提供帮助。
您的要求过于宽泛,您可能需要在Swift中使用完整的工作样本。从这些教程开始,让我知道你是否卡在任何地方。我肯定会帮助你,但无法为你提供完整的工作源代码。