标签: ffmpeg synchronization rtp
我需要一些指导。我正在编写一些应用程序来解析两个RTP数据流以获取实际视频(h264)和音频(PCM alaw),它不是RTSP客户端而是转储解析器(Interleved RTP / RTCP)。 问题是现在如何同步这两个流?
我知道我需要在数据包的时间戳和RTCP的NTP之间进行一些计算(我目前正在研究它),但是如何准备两个轨道以将它们复制到像matroska这样的容器中(例如使用ffmpeg)?我是否必须为音频创建一些空框架以延长它或以某种方式拉伸我不知道如何接近它。