渲染相机输入
另见Google讨论:
https://groups.google.com/forum/#!searchin/discuss-webrtc/capturer$20android$20preview%7Csort:date/discuss-webrtc/sUIR23FftSU/5YIp7cO1BgAJ
如果我在2G网络上,我应该看到我自己的高质量视频,而另一个被叫者应该看到我像素化。
Apprtc Demo渲染将在peerConnection上发送的mediaStream videoTrack,而不是真正的Camera Feed。
作为Apprtc演示
有两种方法很有希望但没有帮助
因为我是从peerConnection渲染而不是从相机中渲染。
您对我如何实现自己相机的渲染有任何想法吗?
答案 0 :(得分:0)
创建视频源时,请将视频捕获器附加到其中。
例如。 localVideoSource = peerConnectionFactory.createVideoSource(videoCapturer);
因此,您必须实现接口org.webrtc.VideoCapturer
,然后将其设置为视频源。
从您的讨论中我了解到您需要更高的质量,您可以通过在启动默认摄像头时设置自己的分辨率来避免自定义实现,如下所示:
capturer.startCapture(widthRecording, heightRecording, fpsRecording);