在ffmpeg H.264解码器中修改运动矢量

时间:2012-02-14 00:47:33

标签: vector ffmpeg h.264 motion decoder

出于研究目的,我试图在解码过程中在运动补偿之前修改每个P帧和B帧的H.264运动矢量(MV)。我正在为此目的使用FFmpeg。修改的示例是用其原始空间邻居替换每个MV,然后使用结果MV进行运动补偿,而不是原始MV。请指点我。

到目前为止,我已经能够在 /libavcodec/h264_cavlc.c 文件中对MV进行简单的修改。在函数 ff_h264_decode_mb_cavlc()中,修改 mx my 变量,例如,通过增加它们的值来修改解码期间使用的MV。

例如,如下所示, mx my 值增加50,从而延长了解码器中使用的MV。

mx += get_se_golomb(&s->gb)+50;
my += get_se_golomb(&s->gb)+50;

但是,在这方面,我不知道如何访问 mx my 的邻居,以进行我在第一段中提到的空间均值分析。我相信这样做的关键在于操纵数组 mv_cache

我执行的另一项实验是在 libavcodec / error_resilience.c 文件中。基于 guess_mv()函数,我创建了一个新函数 mean_mv(),该函数在第一个if-中的 ff_er_frame_end()中执行声明。如果其中一个条件是零错误计数(s-> error_count == 0),则第一个if语句退出函数 ff_er_frame_end()。但是,我决定在此时插入 mean_mv()函数,以便在错误计数为零时始终执行。这个实验有点产生了我想要的结果,因为我可以开始在视频的顶部看到瑕疵,但它们仅限于右上角。我猜测我的插入函数没有完成,以便满足播放截止日期等。

以下是修改后的if语句。唯一的补充是我的功能, mean_mv(s)

if(!s->error_recognition || s->error_count==0 || s->avctx->lowres ||
       s->avctx->hwaccel ||
       s->avctx->codec->capabilities&CODEC_CAP_HWACCEL_VDPAU ||
       s->picture_structure != PICT_FRAME || // we dont support ER of field pictures yet, though it should not crash if enabled
       s->error_count==3*s->mb_width*(s->avctx->skip_top + s->avctx->skip_bottom)) {
        //av_log(s->avctx, AV_LOG_DEBUG, "ff_er_frame_end in er.c\n"); //KG
        if(s->pict_type==AV_PICTURE_TYPE_P)
            mean_mv(s);
        return;

这是我基于 guess_mv()创建的 mean_mv()函数。

static void mean_mv(MpegEncContext *s){
    //uint8_t fixed[s->mb_stride * s->mb_height];
    //const int mb_stride = s->mb_stride;
    const int mb_width = s->mb_width;
    const int mb_height= s->mb_height;
    int mb_x, mb_y, mot_step, mot_stride;

    //av_log(s->avctx, AV_LOG_DEBUG, "mean_mv\n"); //KG

    set_mv_strides(s, &mot_step, &mot_stride);

    for(mb_y=0; mb_y<s->mb_height; mb_y++){
        for(mb_x=0; mb_x<s->mb_width; mb_x++){
            const int mb_xy= mb_x + mb_y*s->mb_stride;
            const int mot_index= (mb_x + mb_y*mot_stride) * mot_step;
            int mv_predictor[4][2]={{0}};
            int ref[4]={0};
            int pred_count=0;
            int m, n;

            if(IS_INTRA(s->current_picture.f.mb_type[mb_xy])) continue;
            //if(!(s->error_status_table[mb_xy]&MV_ERROR)){
            //if (1){
            if(mb_x>0){
                mv_predictor[pred_count][0]= s->current_picture.f.motion_val[0][mot_index - mot_step][0];
                mv_predictor[pred_count][1]= s->current_picture.f.motion_val[0][mot_index - mot_step][1];
                ref         [pred_count]   = s->current_picture.f.ref_index[0][4*(mb_xy-1)];
                pred_count++;
            }

            if(mb_x+1<mb_width){
                mv_predictor[pred_count][0]= s->current_picture.f.motion_val[0][mot_index + mot_step][0];
                mv_predictor[pred_count][1]= s->current_picture.f.motion_val[0][mot_index + mot_step][1];
                ref         [pred_count]   = s->current_picture.f.ref_index[0][4*(mb_xy+1)];
                pred_count++;
            }

            if(mb_y>0){
                mv_predictor[pred_count][0]= s->current_picture.f.motion_val[0][mot_index - mot_stride*mot_step][0];
                mv_predictor[pred_count][1]= s->current_picture.f.motion_val[0][mot_index - mot_stride*mot_step][1];
                ref         [pred_count]   = s->current_picture.f.ref_index[0][4*(mb_xy-s->mb_stride)];
                pred_count++;
            }

            if(mb_y+1<mb_height){
                mv_predictor[pred_count][0]= s->current_picture.f.motion_val[0][mot_index + mot_stride*mot_step][0];
                mv_predictor[pred_count][1]= s->current_picture.f.motion_val[0][mot_index + mot_stride*mot_step][1];
                ref         [pred_count]   = s->current_picture.f.ref_index[0][4*(mb_xy+s->mb_stride)];
                pred_count++;
            }

            if(pred_count==0) continue;

            if(pred_count>=1){
                int sum_x=0, sum_y=0, sum_r=0;
                int k;

                for(k=0; k<pred_count; k++){
                    sum_x+= mv_predictor[k][0]; // Sum all the MVx from MVs avail. for EC
                    sum_y+= mv_predictor[k][1]; // Sum all the MVy from MVs avail. for EC
                    sum_r+= ref[k];
                    // if(k && ref[k] != ref[k-1])
                    // goto skip_mean_and_median;
                }

                mv_predictor[pred_count][0] = sum_x/k;
                mv_predictor[pred_count][1] = sum_y/k;
                ref         [pred_count]    = sum_r/k;
            }

            s->mv[0][0][0] = mv_predictor[pred_count][0];
            s->mv[0][0][1] = mv_predictor[pred_count][1];

            for(m=0; m<mot_step; m++){
                for(n=0; n<mot_step; n++){
                    s->current_picture.f.motion_val[0][mot_index + m + n * mot_stride][0] = s->mv[0][0][0];
                    s->current_picture.f.motion_val[0][mot_index + m + n * mot_stride][1] = s->mv[0][0][1];
                }
            }

            decode_mb(s, ref[pred_count]);

            //}
        }
    }
}

我真的很感激如何正确地解决这个问题。

1 个答案:

答案 0 :(得分:2)

很长一段时间我一直在内部与FFMPEG的代码脱节。

然而,鉴于我对FFMPEG恐怖内幕的经验(你会知道我的意思),我宁愿给你一个简单实用的建议。

建议#1
最有可能的是,当识别每个块的运动矢量时 - 您可以在FFMPEG编码器上下文(a.k.a s)内创建自己的附加阵列,这将存储所有这些阵列。当您的算法运行时,它将从那里获取值。

建议#2
我读的另一件事(我不确定我是否正确阅读)

  

mx和我的值增加50

我认为50是一个非常运动矢量。通常,运动矢量编码的F值范围将是先验限制的。如果你改变+/- 8(或者甚至+/- 16)就可以了 - 但+50可能会很高,最终结果可能正确编码。

我不太了解你关于 mean_mv() 的目标,以及你对此有何期待。请重新说一下。