我有(CMSampleBufferRef)imageBuffer
,类型为yuv_nv12(4:2:0)。
现在我运行以下代码,发现结果令人困惑。
UInt8 *baseSRC = (UInt8 *)CVPixelBufferGetBaseAddress(imageBuffer);
UInt8 *yBaseSRC = (UInt8 *)CVPixelBufferGetBaseAddressOfPlane(imageBuffer, 0);
UInt8 *uvBaseSRC = (UInt8 *)CVPixelBufferGetBaseAddressOfPlane(imageBuffer, 1);
int width = (int)CVPixelBufferGetWidthOfPlane(imageBuffer, 0); //width = 480;
int height = (int)CVPixelBufferGetHeightOfPlane(imageBuffer, 0); //height = 360;
int y_base = yBaseSRC - baseSRC; //y_base = 64;
int uv_y = uvBaseSRC-yBaseSRC; //uv_y = 176640;
int delta = uv_y - width*height; //delta = 3840;
我对这个结果有几个问题。
1:为什么baseSRC
等于yBaseSRC
?
2:为什么yBaseSRC+width*height
等于uvBaseSRC
?从理论上讲,y平面数据之后是uv平面数据而没有任何中断,对吧?现在它被大小为3840字节的东西打断了,我不明白。
3:我尝试使用以下代码将此示例像素转换为cvmat,在大多数iOS设备上,这可以正常工作,但不适用于iPhone 4s.On iPhone 4s, 转换后,像素缓冲区会在侧面产生一些绿线。
Mat nv12Mat(height*1.5,width,CV_8UC1,(unsigned char *)yBaseSRC);
Mat rgbMat;
cvtColor(nv12Mat, rgbMat, CV_YUV2RGB_NV12);
现在rgbMat看起来像这样:
答案 0 :(得分:1)
终于找到了解决方案,基本上解决方案是分配一块新的内存,并连接y平面数据和uv平面数据。然后它可以正常转换为cvmat。
以下是代码段:
UInt8 *newBase = (UInt8 *)malloc(landscapeWidth*landscapeHeight*1.5);
memcpy(newBase, yBaseSRC, landscapeWidth*landscapeHeight);
memcpy(newBase+landscapeWidth*landscapeHeight, uvBaseSRC, landscapeWidth*landscapeHeight*0.5);
Mat nv12Mat(landscapeHeight*1.5,landscapeWidth,CV_8UC1,(unsigned char *)newBase);