使用gstreamer在图像上叠加(或播放)视频作为背景

时间:2015-02-23 08:32:13

标签: cmd gstreamer

我正在开展一个项目,我需要根据颜色显示“alpha键入”感兴趣区域的视频并将其运行到图像上,以便在视频上看到感兴趣区域下的图像。

$ gst-launch-0.10 -e \
    videomixer name=mix\
    ! ffmpegcolorspace \
    ! xvimagesink \
    videotestsrc pattern=0 \
    ! video/x-raw-yuv, framerate=1/1, width=350, height=250 \
    ! textoverlay font-desc="Sans 24" text="CAM1" valign=top halign=left shaded-background=true \
    ! videobox border-alpha=0 top=-200 left=-50 \
    ! mix.
     multifilesrc location="drawing_total_mask_1.jpg" caps="image/jpeg,framerate=1/1"
    ! jpegdec \
    ! textoverlay font-desc="Sans 26" text="Live from Pl" halign=left shaded-background=true auto-resize=false \
    ! ffmpegcolorspace \
    ! video/x-raw-yuv,format=\(fourcc\)AYUV \
    ! mix.   

搜索它我发现这样的东西允许我在图像上显示测试视频(videotestsrc)但是当我提供备用视频源时它不会这样做。

我用来提供自己的源代码及其后面的错误。

$ gst-launch-0.10 -e videomixer name=mix ! ffmpegcolorspace ! xvimagesink    filesrc location = "asd.mp4" ! video/x-raw-yuv, framerate=1/1, width=350, height=250 !      textoverlay font-desc="Sans 24" text="CAM1" valign=top halign=left shaded-background=true !      videobox border-alpha=0 top=-200 left=-50 ! mix.   multifilesrc location=drawing_total_mask_1.jpg" caps="image/jpeg,framerate=1/1" ! jpegdec !      textoverlay font-desc="Sans 26" text="Live from Pl" halign=left shaded-background=true auto-resize=false !      ffmpegcolorspace ! video/x-raw-yuv,format=\(fourcc\)AYUV ! mix.
Setting pipeline to PAUSED ...
Pipeline is PREROLLING ...
WARNING: from element /GstPipeline:pipeline0/GstTextOverlay:textoverlay0: Could not multiplex stream.
Additional debug info:
gsttextoverlay.c(1848): gst_text_overlay_video_event (): /GstPipeline:pipeline0/GstTextOverlay:textoverlay0:
received non-TIME newsegment event on video input
WARNING: from element /GstPipeline:pipeline0/GstTextOverlay:textoverlay1: Could not multiplex stream.
Additional debug info:
gsttextoverlay.c(1848): gst_text_overlay_video_event (): /GstPipeline:pipeline0/GstTextOverlay:textoverlay1:
received non-TIME newsegment event on video input
ERROR: from element /GstPipeline:pipeline0/GstCapsFilter:capsfilter1: Filter caps do not completely specify the output format
Additional debug info:
gstcapsfilter.c(393): gst_capsfilter_prepare_buf (): /GstPipeline:pipeline0/GstCapsFilter:capsfilter1:
Output caps are unfixed: video/x-raw-yuv, framerate=(fraction)1/1, width=(int)350, height=(int)250, format=(fourcc){ AYUV, YUY2, Y444, UYVY, Y42B, YV12, I420, Y41B }
ERROR: pipeline doesn't want to preroll.
Setting pipeline to NULL ...

我无法找到正确的做法,但是我没有做到这一点。

总结一下 我想要一个由我提供的带有透明alpha区域的视频,当在图像上运行时,它将在视频中感兴趣的alpha区域上显示图像。 任何帮助将不胜感激。

提前致谢。

2 个答案:

答案 0 :(得分:2)

我找到了一种方法来做我在问题中提出的问题。我在这里发帖给那些有帮助的人。

这将在图像上运行视频。 注意:如果视频中有任何"橙色"彩色区域,它将应用alpha键控透明度,下面的图像将显示在tranparent region.cheers

gst-launch videomixer name=mix sink_0::alpha=1.0 sink_0::zorder=1 sink_1::zorder=2 
! ffmpegcolorspace ! xvimagesink filesrc location =vidoe.avi ! decodebin 
! alpha method=custom target-r=245 target-g=161 target-b=11 angle=10  
! ffmpegcolorspace ! mix.sink_1 multifilesrc location="image.jpg"
    caps="image/jpeg,framerate=1/1" 
! jpegdec 
! textoverlay font-desc="Sans 26" text="Live from Pl" halign=left 
    shaded-background=true auto-resize=false 
! ffmpegcolorspace ! video/x-raw-yuv,format=\(fourcc\)AYUV ! mix.sink_0

答案 1 :(得分:0)

您需要对视频文件进行解复用和解码才能使用它。只使用filesrc ! video/x-raw-yuv不会神奇地从mp4中提取视频数据。尝试h264parse ! ffdec_h264之类的东西(如果你的mp4持有h.264编码数据)