我之前从未尝试过webrtc。我有一个使用Firebase的应用程序。现在我正在尝试添加语音通话功能。
所以尝试搜索一些教程,大多数使用PubNub或大多数教程都基于Web应用程序。
我看到了这个stackoverflow线程,并且知道可以使用Firebase来使用webrtc。
Voice calls over a Chat app using Firebase
在尝试了一些教程之后,我编写了这段代码,
PeerConnectionFactory.initializeAndroidGlobals(this,false,true,true);
PeerConnectionFactory peerConnectionFactory = new PeerConnectionFactory();
AudioSource audioSource = peerConnectionFactory.createAudioSource(new MediaConstraints());
AudioTrack audioTrack = peerConnectionFactory.createAudioTrack("4444",audioSource);
audioTrack.setEnabled(true);
MediaStream mediaStream = peerConnectionFactory.createLocalMediaStream("4444");
mediaStream.addTrack(audioTrack);
但后来我很困惑如何使用Firebase与其他设备共享流。需要帮助:(
答案 0 :(得分:0)
AFAIK我认为Firebase
暂时不支持语音通话。
另一方面
WebRTC
((Web实时通信)是一个免费的开源项目,通过简单的应用程序编程接口(API)为Web浏览器和移动应用程序提供实时通信(RTC)
基本上,您需要Socket
用于与SignallingServer
和PeerConnection
进行信令,以建立两个客户端之间的连接。
以下是一些开头的链接。
SignallingServer
实现。您将需要NODE.JS
来运行它。 WebRTC
非常棒。
如果您想将Firebase
用作SignallingServer
,则可以使用它。但我认为这将是一个开销,而简单的Socket
可以起作用。