使用ffmpeg创建视频

时间:2016-04-18 06:51:47

标签: c++ ffmpeg

我有100张图片(PNG),我想用这些图片制作视频。我正在使用ffmpeg库。使用命令行我可以轻松创建视频。但是我如何通过编码来实现呢?

任何帮助将不胜感激。

#pragma GCC diagnostic ignored "-Wdeprecated-declarations"


#include <stdlib.h>
#include <stdio.h>
#include <string.h>

#ifdef HAVE_AV_CONFIG_H
#undef HAVE_AV_CONFIG_H
#endif

extern "C"
{
#include "libavutil/imgutils.h"
#include "libavutil/opt.h"
#include "libavcodec/avcodec.h"
#include "libavutil/mathematics.h"
#include "libavutil/samplefmt.h"
}

#define INBUF_SIZE 4096
#define AUDIO_INBUF_SIZE 20480
#define AUDIO_REFILL_THRESH 4096




static void video_encode_example(const char *filename, int codec_id)
{
   AVCodec *codec;
   AVCodecContext *c= NULL;
   int i, out_size, size, x, y, outbuf_size;
   FILE *f;
   AVFrame *picture;
   uint8_t *outbuf;
   int nrOfFramesPerSecond  =25;
   int nrOfSeconds =1;


   printf("Video encoding\n");

//    find the mpeg1 video encoder
   codec = avcodec_find_encoder((CodecID) codec_id);
   if (!codec) {
       fprintf(stderr, "codec not found\n");
       exit(1);
   }

   c = avcodec_alloc_context3(codec);
   picture= avcodec_alloc_frame();

//    put sample parameters
   c->bit_rate = 400000;
//    resolution must be a multiple of two
   c->width = 352;
   c->height = 288;
//    frames per second
   c->time_base= (AVRational){1,25};
   c->gop_size = 10;  //emit one intra frame every ten frames
   c->max_b_frames=1;
   c->pix_fmt = PIX_FMT_YUV420P;

   if(codec_id == CODEC_ID_H264)
       av_opt_set(c->priv_data, "preset", "slow", 0);

//    open it
   if (avcodec_open2(c, codec, NULL) < 0) {
       fprintf(stderr, "could not open codec\n");
       exit(1);
   }

   f = fopen(filename, "wb");
   if (!f) {
       fprintf(stderr, "could not open %s\n", filename);
       exit(1);
   }

//    alloc image and output buffer
   outbuf_size = 100000;
   outbuf = (uint8_t*) malloc(outbuf_size);

//    the image can be allocated by any means and av_image_alloc() is
//    * just the most convenient way if av_malloc() is to be used
   av_image_alloc(picture->data, picture->linesize,
                  c->width, c->height, c->pix_fmt, 1);

//    encode 1 second of video
   int nrOfFramesTotal = nrOfFramesPerSecond * nrOfSeconds;

//    encode 1 second of video
   for(i=0;i < nrOfFramesTotal; i++) {
       fflush(stdout);
//        prepare a dummy image

       for(y=0;y<c->height;y++) {
           for(x=0;x<c->width;x++) {
               picture->data[0][y * picture->linesize[0] + x] = x + y + i * 3;
           }
       }

//        Cb and Cr
       for(y=0;y<c->height/2;y++) {
           for(x=0;x<c->width/2;x++) {
               picture->data[1][y * picture->linesize[1] + x] = 128 + y + i * 2;
               picture->data[2][y * picture->linesize[2] + x] = 64 + x + i * 5;
           }
       }

//        encode the image
       out_size = avcodec_encode_video(c, outbuf, outbuf_size, picture);
       printf("encoding frame %3d (size=%5d)\n", i, out_size);
       fwrite(outbuf, 1, out_size, f);
   }

//    get the delayed frames
   for(; out_size; i++) {
       fflush(stdout);

       out_size = avcodec_encode_video(c, outbuf, outbuf_size, NULL);
       printf("write frame %3d (size=%5d)\n", i, out_size);
       fwrite(outbuf, 1, out_size, f);
   }

//    add sequence end code to have a real mpeg file
   outbuf[0] = 0x00;
   outbuf[1] = 0x00;
   outbuf[2] = 0x01;
   outbuf[3] = 0xb7;
   fwrite(outbuf, 1, 4, f);
   fclose(f);
   free(outbuf);

   avcodec_close(c);
//   av_free(c);
//   av_free(picture->data[0]);
//   av_free(picture);
   printf("\n");
}

int main(int argc, char **argv)
{
   const char *filename;


   avcodec_register_all();

   if (argc <= 1) {

       video_encode_example("/home/radix/Desktop/OpenCV/FFMPEG_Output/op89.png", AV_CODEC_ID_H264);
   } else {
       filename = argv[1];
   }


   return 0;
}
  • 每次搜索我都会得到与此类似的代码。但我不太了解它是否可以用它来创建图像视频。

1 个答案:

答案 0 :(得分:15)

这种情况一再出现的原因是因为您使用encoding_example.c作为参考。请不要这样做。这个例子中最根本的错误是它没有教你编解码器和容器之间的区别。实际上,它完全忽略了容器。

什么是编解码器? 编解码器是一种压缩媒体类型的方法。例如,H264将压缩原始视频。想象一下1080p视频帧,通常采用YUV格式,具有4:2:0色度子采样。 Raw,这是每帧1080 * 1920 * 3/2字节,即~3MB / f。对于60fps,这是180MB /秒,或1.44千兆位/秒(gbps)。这是很多数据,所以我们压缩它。在该分辨率下,对于现代编解码器,如H264,HEVC或VP9,您可以以几兆比特/秒(mbps)的速度获得相当高的质量。对于音频,像AAC或Opus这样的编解码器很受欢迎。

什么是容器? 容器接收视频或音频(或字幕)数据包(压缩或未压缩)并将它们交错以便在单个输出文件中进行组合存储。因此,不是为视频获取一个文件,而是为音频获取一个文件,而是为一个文件交换两个数据包。这允许有效的搜索和索引,它通常还允许添加元数据存储(“作者”,“标题”)等。流行容器的例子是MOV,MP4(实际上只是mov),AVI,Ogg,Matroska或WebM(实际上只是matroska)。

(如果需要,你可以将视频数据存储在文件中。对于H264,这被称为“annexb”raw H264。这实际上就是你在上面做的。那么为什么它不起作用?好吧,你'忽略像SPS和PPS这样的“标题”数据包。这些数据包在avctx-&gt; extradata中,需要在第一个视频数据包之前写入。使用容器会为你处理,但你没有,所以它不起作用。)

如何在FFmpeg中使用容器?参见例如this帖子,特别是调用avformat_write_*()等函数的部分(基本上任何听起来像输出的部分)。我很乐意回答更具体的问题,但我认为上述帖子应该为您解决最多的问题。