如何使用AWS / GCP在Android应用上设置实时流式传输?

时间:2019-05-23 11:43:12

标签: android amazon-web-services google-cloud-platform live-streaming

我正在开发一个Android应用,用户可以使用他/她的Android相机开始实时流式传输。我手头有AWSGCP资源。读完书后我了解的是

  1. 我必须通过某些协议(RTMPHLS等,将android-camera选择的内容流式传输/发布到某些服务器上)。

  2. 我必须设置服务器以提取此输入源并将其打包并存储为可在移动/网络浏览器(基本上是URL)上流式传输/使用的形式,我相信{{1} },AWS's MediaLive等资源。

  3. 我可以使用此URL作为Android上播放器的MediaSource(例如MediaPackage

我的问题是我在第一部分上找不到很好的文档。我发现了https://github.com/bytedeco/javacv,这似乎不是生产级的工作。在尝试第二部分的同时,在AWS上创建MediaLive频道时,我被要求将该频道指向2个目标(我不知道这是什么意思),这使我怀疑我对该过程的理解。我正在寻找一些有关如何实现这一目标的正式程序。

编辑1:

对于输入生产部分,我正在尝试这个答案。 https://stackoverflow.com/a/29061628/3881561

编辑2:

我已经使用https://github.com/ant-media/LiveVideoBroadcaster将视频源发送到RTMP服务器。我在MediaLive中创建了RTMP推送输入源,并在输出中创建了一个通道-Archive(在S3中存储.ts文件)。现在,该流程可以正常工作了,如何修改此体系结构以允许多个用户创建实时流媒体?

0 个答案:

没有答案