我尝试用opencv和python从网络摄像头获取图像。代码是如此基本:
import cv2
import time
cap=cv2.VideoCapture(0)
cap.set(cv2.cv.CV_CAP_PROP_FRAME_WIDTH,640)
cap.set(cv2.cv.CV_CAP_PROP_FRAME_HEIGHT,480)
cap.set(cv2.cv.CV_CAP_PROP_FPS, 20)
a=30
t=time.time()
while (a>0):
now=time.time()
print now-t
t=now
ret,frame=cap.read()
#Some processes
print a,ret
print frame.shape
a=a-1
k=cv2.waitKey(20)
if k==27:
break
cv2.destroyAllWindows()
但它运作缓慢。程序输出:
VIDIOC_QUERYMENU: Invalid argument
VIDIOC_QUERYMENU: Invalid argument
VIDIOC_QUERYMENU: Invalid argument
VIDIOC_QUERYMENU: Invalid argument
VIDIOC_QUERYMENU: Invalid argument
VIDIOC_QUERYMENU: Invalid argument
HIGHGUI ERROR: V4L: Property <unknown property string>(5) not supported by device
8.82148742676e-06
select timeout
30 True
(480, 640, 3)
2.10035800934
select timeout
29 True
(480, 640, 3)
2.06729602814
select timeout
28 True
(480, 640, 3)
2.07144904137
select timeout
配置:
答案 0 :(得分:4)
使用OpenCV处理视频流时获取更高FPS的&#34;秘密&#34; 是将I / O(即从相机传感器读取帧)移动到单独的线程。
当调用read()
方法和cv2.VideoCapture
函数时,它会使整个过程非常缓慢,因为它必须等待每个I / O操作完成才能继续下一个I / O操作(Blocking Process)。
为了实现FPS增加/延迟减少,我们的目标是将帧的读取从网络摄像头或USB设备移动到完全不同的线程,完全独立于我们的主Python脚本。
这将允许从I / O线程连续读取帧,同时我们的根线程处理当前帧。一旦根线程完成处理它的帧,它只需要从I / O线程中获取当前帧。无需等待阻止I / O操作即可完成此操作。
您可以阅读Increasing webcam FPS with Python and OpenCV以了解实施线程的步骤。
修改强>
根据我们评论中的讨论,我觉得您可以按如下方式重写代码:
import cv2
cv2.namedWindow("output")
cap = cv2.VideoCapture(0)
if cap.isOpened(): # Getting the first frame
ret, frame = cap.read()
else:
ret = False
while ret:
cv2.imshow("output", frame)
ret, frame = cap.read()
key = cv2.waitKey(20)
if key == 27: # exit on Escape key
break
cv2.destroyWindow("output")
答案 1 :(得分:3)
当我在英特尔Edison平台上使用OpenCV 2.4.9开展项目时遇到了类似的问题。在进行任何处理之前,仅需要大约80ms来执行帧抓取。事实证明,OpenCV的Linux摄像头捕获逻辑似乎没有得到正确实现,至少在2.4.9版本中是这样。底层驱动程序只使用一个缓冲区,因此无法在应用程序层中使用多线程来解决它 - 直到您尝试获取下一帧,V4L2驱动程序中唯一的缓冲区被锁定。
解决方案是不使用OpenCV的VideoCapture类。也许修复了在某些时候使用合理数量的缓冲区,但从2.4.9开始,它不是。事实上,如果您查看同一作者的this文章与@Nickil Maveli提供的链接,您会发现,只要他提供改善Raspberry Pi上的FPS的建议,他就会停止使用OpenCV的视频截取。我不相信这是巧合。
以下是我在英特尔爱迪生论坛上发布的帖子:https://communities.intel.com/thread/58544。
我基本上编写了自己的类来处理帧抓取,直接使用V4L2。这样,您可以提供循环缓冲区列表,并允许帧抓取和应用程序逻辑正确解耦。对于C ++应用程序,这在C ++中完成。假设上述链接兑现了它的承诺,这可能是一种更容易的方法。我不确定它是否适用于BeagleBone,但也许有类似于PiCamera的东西。祝你好运。
编辑:我看了一下OpenCV 2.4.11的源代码。看起来他们现在默认使用4个缓冲区,但您必须使用V4L2来利用它。如果仔细查看错误消息HIGHGUI ERROR: V4L: Property...
,您会看到它引用的是V4L,而不是V4L2。这意味着你正在使用的OpenCV的构建正在回归旧的V4L驱动程序。除了导致性能问题的单一缓冲区之外,您还使用了一个古老的驱动程序,它本身可能存在许多限制和性能问题。
您最好的选择是自己构建OpenCV以确保它使用V4L2。如果我没记错的话,OpenCV配置过程会检查机器上是否安装了V4L2驱动程序并相应地构建它,因此您需要确保在用于构建OpenCV的机器上安装了V4L2和任何相关的开发包。
答案 2 :(得分:1)
试试这个!我替换了cap.set()部分中的一些代码
import cv2
import time
cap=cv2.VideoCapture(0)
cap.set(3,640)
cap.set(4,480)
cap.set(5, 20)
a=30
t=time.time()
while (a>0):
now=time.time()
print now-t
t=now
ret,frame=cap.read()
#Some processes
print a,ret
print frame.shape
a=a-1
k=cv2.waitKey(20)
if k==27:
break
cv2.destroyAllWindows()
输出(pc网络摄像头)你的代码对我来说是错误的。
>>0.0
>>30 True
>>(480, 640, 3)
>>0.246999979019
>>29 True
>>(480, 640, 3)
>>0.0249998569489
>>28 True
>>(480, 640, 3)
>>0.0280001163483
>>27 True
>>(480, 640, 3)
>>0.0320000648499