我正在使用ffms2(又名FFmpegSource)来解码视频帧并在基于wxWidgets的UI上显示。 我的播放器适用于低分辨率视频(320 * 240,640 * 480),但对于更高分辨率(1080),它非常慢。我无法为高分辨率视频制作所需的帧。 经过时间分析后,我发现FFMS_GetFrame()帧功能需要更长的时间才能实现高分辨率帧。 结果如下。 1. 320 * 240 FFMS_GetFrame需要4-6ms 2. 640 * 480 FFMS_GetFrame需要> 20ms 3. 1080 * 720 FFMS_GetFrame取> 40
这意味着我永远不会满足使用FFMS2的1080p帧的30 fps要求。但我不确定是不是这样。 请提出可能出现的问题。
void SetPosition(int64 pos)
{
uint8_t* data_ptr = NULL;
/*check if position is valid*/
if (!m_track || pos < 0 && pos > m_videoProp->NumFrames - 1)
return; // ERR_POS;
wxMilliClock_t start_wx_t = wxGetLocalTimeMillis();
long long start_t = start_wx_t.GetValue();
m_frameId = pos;
if(m_video)
{
m_frameProp = FFMS_GetFrame(m_video, m_frameId, &m_errInfo);
if(!m_frameProp) return;
if(m_frameProp)
{
m_width_ffms2 = m_frameProp->EncodedWidth;
m_height_ffms2 = m_frameProp->EncodedHeight;
}
wxMilliClock_t end_wx_t = wxGetLocalTimeMillis();
long long end_t = end_wx_t.GetValue();
long long diff_t = end_t - start_t;
wxLogDebug(wxString(wxT("Frame Grabe Millisec") + ToString(diff_t)));
//m_frameInfo = FFMS_GetFrameInfo(m_track, FFMS_TYPE_VIDEO);
/* If you want to change the output colorspace or resize the output frame size, now is the time to do it.
IMPORTANT: This step is also required to prevent resolution and colorspace changes midstream. You can
always tell a frame's original properties by examining the Encoded properties in FFMS_Frame. */
/* A -1 terminated list of the acceptable output formats (see pixfmt.h for the list of pixel formats/colorspaces).
To get the name of a given pixel format, strip the leading PIX_FMT_ and convert to lowercase. For example,
PIX_FMT_YUV420P becomes "yuv420p". */
#if 0
int pixfmt[2];
pixfmt[0] = FFMS_GetPixFmt("bgr24");
pixfmt[1] = -1;
#endif
// FFMS_SetOutputFormatV2 returns 0 on success. It Returns non-0 and sets ErrorMsg on failure.
int failure = FFMS_SetOutputFormatV2(m_video, pixfmt, m_width_ffms2, m_height_ffms2, FFMS_RESIZER_BICUBIC, &m_errInfo);
if (failure)
{
//FFMS_DestroyVideoSource(m_video);
//m_video = NULL;
return; //return ERR_POS;
}
data_ptr = m_frameProp->Data[0];
}
else
{
m_width_ffms2 = 320;
m_height_ffms2 = 240;
}
if(data_ptr)
{
memcpy(m_buf, data_ptr, 3*m_height_ffms2 * m_width_ffms2);
}
else
{
memset(m_buf, 0, 3*m_height_ffms2 * m_width_ffms2);
}
}
答案 0 :(得分:1)
使用较大帧的较慢视频解码是完全正常的。 1080x720的像素大约是320x240的十倍,因此GetFrame大约需要十倍的时间并不令人惊讶(这不是一个严格的线性关系,因为有很多其他因素会影响解码速度,但像素数和解码时间非常相关)。
设置每一帧的输出格式是不必要的,并且会使事情变慢。除非您特别希望更改输出格式,否则您应该在打开视频后立即调用它,并且它将适用于此后请求的所有帧。