我正在开发一个Android应用,用户可以使用他/她的Android相机开始实时流式传输。我手头有AWS
和GCP
资源。读完书后我了解的是
我必须通过某些协议(RTMP
或HLS
等,将android-camera选择的内容流式传输/发布到某些服务器上)。
我必须设置服务器以提取此输入源并将其打包并存储为可在移动/网络浏览器(基本上是URL)上流式传输/使用的形式,我相信{{1} },AWS's MediaLive
等资源。
我可以使用此URL作为Android上播放器的MediaSource(例如MediaPackage
)
我的问题是我在第一部分上找不到很好的文档。我发现了https://github.com/bytedeco/javacv,这似乎不是生产级的工作。在尝试第二部分的同时,在AWS上创建MediaLive频道时,我被要求将该频道指向2个目标(我不知道这是什么意思),这使我怀疑我对该过程的理解。我正在寻找一些有关如何实现这一目标的正式程序。
编辑1:
对于输入生产部分,我正在尝试这个答案。 https://stackoverflow.com/a/29061628/3881561
编辑2:
我已经使用https://github.com/ant-media/LiveVideoBroadcaster将视频源发送到RTMP服务器。我在MediaLive中创建了RTMP推送输入源,并在输出中创建了一个通道-Archive(在S3中存储.ts文件)。现在,该流程可以正常工作了,如何修改此体系结构以允许多个用户创建实时流媒体?