基本概念视频数据结构和处理

时间:2017-03-03 15:41:45

标签: hadoop video

首先抱歉我的英语。我不是母语人士。请耐心等待。

视频文件是以预定义的速率压缩和播放的大量图像。当然,这是一个简单而简洁的描述。我需要创建一个分布式应用程序来处理Hadoop集群中的视频以应用视频过滤器。我的问题是:是否有必要在所有图像中解压缩视频并将过滤器应用于所有图像,或者使用更智能的方法来减少处理它的时间?

感谢。

1 个答案:

答案 0 :(得分:0)

我想甚至一篇文章都不足以涵盖你的任务方面。我设法解决类似任务的方式是在Hadoop中使用Storm框架。此服务提供了一种分布式机制,可实时流式传输数据。每个数据都通过称为拓扑的工作流程进行处理,该工作流程由一组称为spouts的源和称为bolt的逻辑单元组成。因此,对于您的情况,您可以将视频流式传输到spout,然后将其发送到某个过滤螺栓。例如,该单元可以使用OpenCV库封装一些视频处理逻辑。您可以使用FrameGrabber来解析视频或视频块,并执行某些过滤步骤。另一个选择是将ffmpeg的使用直接集成到Storm bolt中。但这需要一些额外的步骤来generating正确的ffmpeg构建,并为您的特定环境提供必要的编解码器。这些是你可以开始考虑的事情。