我想要的是直截了当:将H.264视频流包装到FLV容器中。但是, ffmpeg 只是对输入流进行解码并将原始视频流打包为FLV。详情如下:
从硬件编码器摄像机捕获输入流,FLV将被发送到某个视频服务器。首先,我使用以下命令:
$ ffmpeg -framerate 15 -s 320x240 -i /dev/video1 -f flv "rtmp://some.website.com/receive/path"
然而,结果流是可疑的。观看方没有得到任何H.264的东西。然后我通过将输出写入本地文件来进行测试。
1:读取原始流,按h264_omx编码,写入FLV文件:
$ ffmpeg -framerate 15 -s 320x240 -i /dev/video0 -codec h264_omx -f flv raw_input_h264_omx.flv
......
Input #0, video4linux2,v4l2, from '/dev/video0':
Duration: N/A, start: 194017.870905, bitrate: 18432 kb/s
Stream #0:0: Video: rawvideo (YUY2 / 0x32595559), yuyv422, 320x240, 18432 kb/s, 15 fps, 15 tbr, 1000k tbn, 1000k tbc
Stream mapping:
Stream #0:0 -> #0:0 (rawvideo (native) -> h264 (h264_omx))
......
2:读取H264流,写入FLV文件:
$ ffmpeg -framerate 15 -s 320x240 -i /dev/video1 -f flv h264_input.flv
......
Input #0, video4linux2,v4l2, from '/dev/video1':
Duration: N/A, start: 194610.307096, bitrate: N/A
Stream #0:0: Video: h264 (Main), yuv420p(progressive), 320x240, 15 fps, 15 tbr, 1000k tbn, 2000k tbc
Stream mapping:
Stream #0:0 -> #0:0 (h264 (native) -> flv1 (flv))
......
然后相应地阅读这两个文件:
$ ffmpeg -i raw_input_h264_omx.flv
......
Stream #0:0: Video: h264 (High), yuv420p(progressive), 320x240, 200 kb/s, 15 fps, 15 tbr, 1k tbn
$ ffmpeg -i h264_input.flv
......
Stream #0:0: Video: flv1, yuv420p, 320x240, 200 kb/s, 15 fps, 15 tbr, 1k tbn
很明显,当我提供H.264流时, ffmpeg 首先对其进行解码,然后将原始视频打包到FLV中。如何避免这种情况发生,并直接打包H.264流?
补充:我最终会推送多个视频流,所以不要让我允许 ffmpeg 的静音解码,并再次对流进行编码。
答案 0 :(得分:5)
除非另有说明,否则ffmpeg将对流进行转码。
使用
ffmpeg -framerate 15 -s 320x240 -i /dev/video1 -c copy -f flv "rtmp://website/receive/path"