我正在尝试使用适用于Unity的Google Cardboard SDK创建FPV耳机,我已经获得了一个基本设置,使用WebCamTexture显示来自手机后置摄像头的“网络摄像头”流。
是否有人使用Socket流为WebCamTexture提供视频数据?有没有更好的方法在Unity中流式传输视频?
我的最终目标是从网络上的另一个网络摄像头流式传输视频,并能够通过我的头部动作+伺服控制它。
感谢您的投入!
答案 0 :(得分:0)
您需要使用类似ffmpeg之类的内容来对视频输入进行deltac压缩,并将其显示在像Theora Mobile Movie Texture一样的MovieTexture上。您需要编写一些插件来实现此目的,或者在资产商店购买一些插件。
干杯
答案 1 :(得分:0)
尽管帖子有些陈旧,但我想在这里与仍在寻找解决方案的人分享我的经验。
首先,流式传输压缩视频很棒,但是对于大多数初学者来说,它太先进了。因此,我不建议您这样做,因为您可能需要一些插件和库,这些插件和库可能仅在有限的平台上支持。
可以使用Tcp套接字流式传输摄像头纹理或游戏内渲染纹理。 如果不需要音频,则可以简单地通过Tcp或Udp将图像序列作为字节数据流式传输。它非常健壮和直截了当,并且可以在支持Tcp / Udp的所有平台上运行。
我发现并使用过一些有用的参考文献: