现在我有一些大视频数据。我想使用hadoop
在Map/Reduce
中解码视频数据。
我想要使用的解码lib是ffmpeg
。但是函数av_open_input_file
只能读取本地文件,而不能读取HDFS
因此,如果我想解码视频数据,我应该初始化struct AVFormatContext
。现在我无法得到这个struct
。如何阅读视频文件的标题并初始化AVFormatContext
。并逐字节读取视频数据并最后解码它们?
答案 0 :(得分:0)
我试图分配解码。但ffmpeg只能解码本地视频。所以我尝试加载文件头来启动解码器。最后,我失败了。然后我找到了另一个解决方案:fuse_dfs。它可以将HDFS挂载到本地文件系统,同时数据也存储在分布式文件系统中。 您可以在此站点中找到一些帮助: how to mount hdfs to local file system