我正在尝试从不同的Raspberry Pi中播放视频..; RPI 2B / 2 B +和RPI 3。 我发现如何通过NINGX流式传输rtmp / flv视频,它工作正常,但现在我需要将此流转换为MJPEG流。实际上我需要它作为运动(检测)的输入
我已尝试使用mjeg_streamer在前面使用FFMPEG / image2发布MJPEG流,以将流分割为图像chunhs。但它太慢而且太贪婪
经过多次搜索,我已经安装了流光眼,看起来很完美。但是,在Web客户端连接到覆盆子py上托管的服务器之后,该进程陷阱10s(2/3相同的结果,因此我认为不是ARM61 / 71问题..与FFMPEG或AVCONV相同)。...而且它上面的更多内容会导致我们连接的ssh会话崩溃,以访问rapsberry设备。生成SSH会话问题的FFMPEG陷阱? 请注意,连接丢失后树莓没有关闭,因为它的所有服务仍在运行。只需再次通过SSH连接。
我不知道是不是因为我的ffmpeg喂食命令,或者它是否是一个流光的鼻子。没有找到关于谷歌的任何信息,但是在0.8(我正在处理的版本)中修复了一个Web客户端问题
来自我运行的FLV / h264
avconv -r 15 -f flv -i rtmp://127.0.0.1/app/my_stream -c:v mjpeg -crf 15 -f mjpeg - | streameye -p 8080
源流定义如下(无音频流):
Input #0, live_flv, from 'rtmp://boxnet-0-eth/live/boxnet-2':
Metadata:
Server : NGINX RTMP (github.com/arut/nginx-rtmp-module)
displayWidth : 480
displayHeight : 320
fps : 0
profile :
level :
Duration: 00:00:00.00, start: 0.000000, bitrate: N/A
Stream #0:0: Video: h264 (High), yuv420p(progressive), 480x320, 1k tbr, 1k tbn