标签: video-streaming augmented-reality aframe
我在aframe-ar附近玩耍,并注意到它默认情况下使用网络摄像头。 我想使用另一个流。 大概的架构是 NodeJS应用程序从网络摄像头捕获视频,并连接到正在运行的PC-> WebSocket连接,该网络将流从该网络摄像头发送到客户端->在客户端上扩展该流。
我想先使用计算机视觉方法分析视频流,然后再将其发送到客户端(使用react-aframe-ar包装器)。
有可能吗?