我正在尝试使用AVSampleBufferDisplayLayer呈现来自UDP连接的基本h264流。 对于一个来源,我使用这个gstreamer命令:
gst-launch-1.0 -v videotestsrc is-live=true pattern-ball ! video/x-raw,width-120,height=90,framerate=15/1 ! x264enc tune=zerolatency ! h264parse ! video/x-h264,stream-format=byte-stream ! rtph264pay mtu=100000000 ! udpsink host=127.0.0.1 port=1234
获取SPS和PPS参数后,客户端读取流,将有效负载打包到CMBlockBuffer(使用正确的NAL头),将CMBlockBuffer打包到CMSampleBuffer中,然后将CMSampleBuffer传递给AVSampleBufferDisplayLayer。 This post on using the AVSampleBufferDisplayLayer提供了执行此操作的一个很好的示例,我的原型实现非常相似。对于这个基本情况,它工作得很好,我的非常小(120x90)视频呈现完美。
然而,当我尝试提高源视频的分辨率时,一切都崩溃了。 在400x300分辨率的视频中,我开始在每个访问单元分隔符数据包之间获得4个NAL单元(每个单元在一个单独的UDP数据包中)。我希望每个NAL单元现在代表最终帧的一部分,而不是整个帧。所以,我正在收集一个帧的所有切片并将它们捆绑到一个CMSampleBuffer中以传递给AVSampleBufferDisplayLayer。
捆绑切片时,AVSampleBufferDisplayLayer不会呈现任何内容。 当切片作为单独的CMSampleBuffers单独传递给图层时,AVSampleBufferDisplayLayer显示为绿色,顶部有闪烁的黑色条带。
以下是在将数据包数据发送到AVSampleBufferDisplayLayer之前捆绑数据包的代码:
-(void)udpStreamSource:(UdpSource*)source didReceiveCodedSlicePacket:(NSData*)packet withPayloadOffset:(NSInteger)payloadOffset withPayloadLength:(NSInteger)payloadLength {
const size_t nalLength = payloadLength+4;
uint8_t *videoData = malloc(sizeof(uint8_t)*nalLength);
// first byte of payload is NAL header byte
[packet getBytes:videoData+4 range:NSMakeRange(payloadOffset, payloadLength)];
// prepend payloadLength to NAL
videoData[0] = (uint8_t)(payloadLength >> 24);
videoData[1] = (uint8_t)(payloadLength >> 16);
videoData[2] = (uint8_t)(payloadLength >> 8);
videoData[3] = (uint8_t) payloadLength;
sliceSizes[sliceCount] = nalLength;
sliceList[sliceCount++] = videoData;
}
-(void)udpStreamSource:(UdpSource*)source didReceiveAccessUnitDelimiter:(NSData*)packet {
if (sliceCount <= 0) {
return;
}
CMBlockBufferRef videoBlock = NULL;
OSStatus status = CMBlockBufferCreateWithMemoryBlock(NULL, sliceList[0], sliceSizes[0], NULL, NULL, 0, sliceSizes[0], 0, &videoBlock);
if (status != noErr) {
NSLog(@"CMBlockBufferCreateWithMemoryBlock failed with error: %d", status);
}
for (int i=1; i < sliceCount; i++) {
status = CMBlockBufferAppendMemoryBlock(videoBlock, sliceList[i], sliceSizes[i], NULL, NULL, 0, sliceSizes[i], 0);
if (status != noErr) {
NSLog(@"CMBlockBufferAppendMemoryBlock failed with error: %d", status);
}
}
CMSampleBufferRef sampleBuffer = NULL;
status = CMSampleBufferCreate(NULL, videoBlock, TRUE, NULL, NULL, _formatDescription, sliceCount, 0, NULL, sliceCount, sliceSizes, &sampleBuffer);
if (status != noErr) {
NSLog(@"CMSampleBufferCreate failed with error: %d", status);
}
CFArrayRef attachments = CMSampleBufferGetSampleAttachmentsArray(sampleBuffer, YES);
CFMutableDictionaryRef dict = (CFMutableDictionaryRef)CFArrayGetValueAtIndex(attachments, 0);
CFDictionarySetValue(dict, kCMSampleAttachmentKey_DisplayImmediately, kCFBooleanTrue);
sliceCount = 0;
// videoLayer is an AVSampleBufferDisplayLayer
[videoLayer enqueueSampleBuffer:sampleBuffer];
[videoLayer setNeedsDisplay];
}
非常感谢任何帮助或想法。
请注意,当我使用低分辨率视频源时,实现工作正常。当我提高视频输入的分辨率时,它只会遇到问题。
我还尝试使用VTDecompressionSession来解码数据。在这种情况下,解码器给了我没有错误的帧,但是我无法弄清楚如何将它们渲染到屏幕上。
答案 0 :(得分:1)
事实证明问题出在get-launch-1.0管道的“mtu = 100000000”部分。
Gstreamer会尝试发送大于网络处理的数据包。即使理论数据包大小限制超过udp约为65k,网络(甚至OS)也可能施加自己的“最大传输单元”限制。我确定我使用的网络的MTU为1492.
因此,为了正确传输数据(并成功接收所有数据包),我不得不将MTU更改为更小的尺寸。我选择了1400.在客户端,这意味着NAL单元将在FU-A类型NAL结构中的几个RTP分组上分段。因此,在将这些数据包发送到解码器之前,我必须将这些数据包聚合到原始的全尺寸NAL中。