我希望能够将AR Drone 2的视频源从Debian服务器重新播放到Flash。
我知道AR Drone使用编解码器p264。在视频编解码器方面,我完全是绿色的,所以我不知道什么适合我想达到的目标?
与使用ffplay直接连接到AR Drone时相比,我能够从AR Drone流式传输视频,但延迟非常高且质量极低。
我目前在标准的ffserver.conf中使用.swf示例:
<Stream test.swf>
Feed feed1.ffm
Format swf
VideoFrameRate 30
VideoIntraOnly
NoAudio
</Stream>
.ffm Feed的设置如下:
<Feed feed1.ffm>
File /tmp/feed1.ffm
FileMaxSize 17K
ACL allow 127.0.0.1
NoAudio
</Feed>
我用来为ffserver feed提供输入的命令:
ffmpeg -i http://192.168.1.1:5555 http://localhost:8090/feed1.ffm
如何才能实现更低的延迟和更高的质量,因为流目前无法获取?
答案 0 :(得分:5)
不幸的是,ffserver根本无法完成你想要完成的工作。你和互联网上的其他人都在同一堵墙上。我能得到的最好的是大约3秒的延迟,当流程运行几个小时后,它会逐渐增加到大约5-10秒。
我也没有用ffmpeg解码流。我不知道为什么。它适用于ffplay,这让我更加困惑!
我正在研究Py-Media,看看我是否可以为类似项目编写自己的代码。我想流式传输ardrone视频并对流中的图像进行微缩。
P.S。看看gstreamer,我看到其他人讨论它会产生不同的结果。