我希望找到一种方法将网络摄像头集成到我的python程序中。
我正在运行Raspberry Pi Model A OC'd到900mHz,因此解决方案需要与ARM兼容并且(希望)轻量级。
我见过的大多数帖子都建议使用OpenCV模块来阅读网络摄像头,但我无法得到任何东西,只能从我的网络摄像头中显示黑框。我认为OpenCV与我的网络摄像头不兼容。但是,可用于Linux的每个其他网络摄像头应用程序都可以检测并显示来自我的网络摄像头的源。
我想知道是否有任何其他轻量级或简单的方法可以使用python从我的网络摄像头捕获。也许我可以直接与/ dev /为我的网络摄像头连接的video0设备连接?我对任何建议持开放态度;因为我现在正在做的事情是行不通的。
由于
(根据要求):
v4l2-ctl --all
的输出:
Driver Info (not using libv4l2):
Driver name : uvcvideo
Card type : UVC Camera (046d:081b)
Bus info : usb-bcm2708_usb-1.2
Driver version: 3.2.27
Capabilities : 0x04000001
Video Capture
Streaming
Format Video Capture:
Width/Height : 640/480
Pixel Format : 'YUYV'
Field : None
Bytes per Line: 1280
Size Image : 614400
Colorspace : SRGB
Crop Capability Video Capture:
Bounds : Left 0, Top 0, Width 640, Height 480
Default : Left 0, Top 0, Width 640, Height 480
Pixel Aspect: 1/1
Video input : 0 (Camera 1: ok)
Streaming Parameters Video Capture:
Capabilities : timeperframe
Frames per second: 30.000 (30/1)
Read buffers : 0
这是我正在使用的代码片段:
import cv
cv.NamedWindow("camera", 1)
capture = cv.CaptureFromCAM(0)
while True:
img = cv.QueryFrame(capture)
cv.ShowImage("camera", img)
if cv.WaitKey(10) == 27:
break
cv.DestroyWindow("camera")
感谢您的帮助!
答案 0 :(得分:3)
您可以使用gstreamer-0.10。
让它在命令行上运行。 例如:gst-launch -v v4l2src! decodebin! ffmpegcolorspace! pngenc! filesink location = out.png
使用parse_launch函数获取python代码中工作管道的快捷方式。
import gst
pipeline = gst.parse_launch("""
v4l2src ! decodebin ! ffmpegcolorspace ! pngenc ! filesink location="%s"
""" % sys.argv[-1])
pipeline.set_state(gst.STATE_PLAYING)
答案 1 :(得分:1)
我尝试了几种从网络摄像头捕获单帧的方法:
uvccapture是一个选项,这是一个命令:
uvccapture -d /dev/video0 -o outfile.jpg
流光是另一个,命令看起来像这样:
streamer -c /dev/video0 -o outfile.jpeg
是的我意识到这不是最高性能,因为您必须使用Python的“命令”模块来执行此命令并获取结果,然后在OpenCV中打开生成的文件来进行处理。
但确实有效。我已经在几个自动化项目的生产中非常成功地使用它。我经历的滞后是基于我的图像处理软件,原始图像可以非常快速地显示。