我有一个带有两个PiNoIR相机模块的Raspberry pi计算模块设置。
我正在尝试捕获2个视频流,以便日后在树莓派3上使用。这是配置:
最初的想法是使用硬件设备(例如/ dev / videoX),但bcm2835_v4l2内核模块目前只支持1个摄像头,而我没有开发内核模块的经验,试着让它支持2个摄像头
我尝试使用picamera文档中的测试代码,但这仅适用于单个相机。我知道定义PiCamera(0)
或PiCamera(1)
会选择任何一个摄像头,但我不知道如何让它一起记录两个流。
我已经尝试了下面的内容,我尝试使用this guide来处理python和opencv。该指南仅针对一台摄像机,我需要同时工作。
!/usr/bin/python
import picamera
import time
cameraOne = picamera.PiCamera(0)
cameraTwo = picamera.PiCamera(1)
cameraOne.resolution = (640,480)
cameraTwo.resolution = (640,480)
cameraOne.framerate = 30
cameraOne.framerate = 30
cameraOne.start_recording('CameraOne.mjpg')
cameraTwo.start_recording('CameraTwo.mjpg')
counter = 0
while 1:
cameraOne.wait_recording(0.1)
cameraTwo.wait_recording(0.1)
counter += 1
if counter == 30:
break
cameraOne.stop_recording()
cameraTwo.stop_recording()
上面的代码段会生成两个10秒的视频,每个摄像机都有一个帧
我不知道从哪里开始,因为我不熟悉python,而且我在C ++方面更有经验,因此需要硬件设备控制(例如/dev/videoX).
我需要的是能够同时记录两个摄像机的流以用于处理立体视觉。
如果您能为我提供纯python-picamera解决方案或opencv集成解决方案,我将非常感激。
就像更新一样,我对此仍然没有太大的帮助,并且可以真正使用一些帮助。