我正在尝试将uv4l服务器流直接连接到node.js服务器。
我希望能够使用外部设备上的node-webrtc包读取流。我已经在两者之间建立了websocket连接。
我知道默认情况下我可以将流作为mjpeg获取,但是我需要一个实际的webRTC流,以便可以将其与node-webrtc包一起使用。
最后,我想要实现的是在https://github.com/node-webrtc/node-webrtc-examples/blob/master/examples/video-compositing处重新创建示例,但要从树莓派中获取流。
希望这一切都有道理!谢谢!