我是swift and objective-c的初学者,因此尝试开发一个应用程序。 我粗略的想法如下:
视频(文件/网址) - >提取帧图像 - >图像处理 - >显示器(的UIImageView)
psuedocode:@ viewDidLoad
while ( until end of frame )
{
extract a frame (using copyCGImage function)
// call image processing function
ImageView.image = frame image after image processing.
}
但是,我在模拟此代码后检查最终的帧图像。 此外,使用animationImage函数,内存大小不仅仅依赖于视频长度,而且结果不完美(图像变化不平滑)。
问题: 如何在swift中显示像原始视频一样的提取图像文件?