看着RFC 8216 (HTTP Live Streaming),似乎我应该使用传输流文件来实现HLS。我了解它们是容器文件,并且包含压缩的音频/视频文件。显然,这些需要在接收端以某种方式进行解码。 RFC 8216说:
任何包含视频的媒体段都应包含足够的内容 初始化视频解码器并解码连续集的信息 包含细分中的最后一帧的帧数;网络 如果细分中有足够的信息,效率将得到优化 解码段中的所有帧。例如,任何媒体细分 包含H.264视频应包含即时解码 刷新(IDR);将下载第一个IDR之前的帧,但是 可能会被丢弃。
但是,由于我对视频格式/压缩等知识不多,所以我很难理解这一点。初始化视频解码器需要什么信息?我是否需要依赖接收计算机来安装某些编解码器/程序?另外,传输流文件仅是H.262还是可以使用H.264以获得更好的性能?