我正在尝试设置基于网络的Live网络摄像头流媒体服务(使用laravel框架php),用户可以通过网络摄像头直播(仅限基于Web)。 例如:
用户X在http://localhost/userx开始网络摄像头广播,而用户Y,Z等加入http://localhost/userx上的该会议室将能够观看直播网络摄像头/流。
我正在使用node.js和socket.io库进行实时聊天,它运行正常。 但我不知道网络摄像头流媒体。
我应该使用webrtc吗?如果我使用Webrtc,有多少观众可以处理广播公司? 处理大约1000-2000名观众的最佳解决方案是什么? 任何建议都会对我有所帮助。
答案 0 :(得分:0)
为什么不使用node-camera模块,它允许您使用opencv和websockets访问和流式传输nodejs中的网络摄像头。
这个命令应该运行才能运行它:
npm start -- [-open] [-wsport websocketPort] [-webport webserverport] [-res widthxheight]
传递给它的选项是:
- 在启动时打开流媒体网址
-wsport用于流媒体的Web套接字端口
-webport Web服务器端口
预览图像的分辨率
- 输入输入源。 (例如,ip camera url)
ffmpeg,vlc和OpenCV等少数库可以使用网络摄像头访问,可以编写为节点的本机插件